opencv - FFMPEG 将 image2pipe 中的视频与 RTMP 中的音频同步

标签 opencv audio video ffmpeg synchronization

我有一个 rtmp url,我需要使用 opencv 放置覆盖并保留音频。
它运行良好,除了音频和视频之间的同步。
用这个命令

ffmpeg -re -y -f image2pipe -i - -i rtmp://192.168.178.32:1935/opencv-hls/test -map 0:v:0 -vcodec libx264 -g 50 -keyint_min 50 -map 1:a:0 -b:a 128k -f mpegts -codec:v mpeg1video -b:v 700k -s 1024x576 -bf 0 -q 1 http://localhost:3000/mystream
我打开一个image2pipe,在其中发送带有叠加层的帧,并使用opencv的相同输入作为ffmpeg的第二个命令来获取音频并将所有内容发送到mpegts url
这是 ffmpeg 输出
ffmpeg version 4.1.4-1build2 Copyright (c) 2000-2019 the FFmpeg developers
  built with gcc 9 (Ubuntu 9.2.1-4ubuntu1)
  configuration: --prefix=/usr --extra-version=1build2 --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --arch=amd64 --enable-gpl --disable-stripping --enable-avresample --disable-filter=resample --enable-avisynth --enable-gnutls --enable-ladspa --enable-libaom --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libcodec2 --enable-libflite --enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libjack --enable-libmp3lame --enable-libmysofa --enable-libopenjpeg --enable-libopenmpt --enable-libopus --enable-libpulse --enable-librsvg --enable-librubberband --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxml2 --enable-libxvid --enable-libzmq --enable-libzvbi --enable-lv2 --enable-omx --enable-openal --enable-opengl --enable-sdl2 --enable-libdc1394 --enable-libdrm --enable-libiec61883 --enable-chromaprint --enable-frei0r --enable-libx264 --enable-shared
  libavutil      56. 22.100 / 56. 22.100
  libavcodec     58. 35.100 / 58. 35.100
  libavformat    58. 20.100 / 58. 20.100
  libavdevice    58.  5.100 / 58.  5.100
  libavfilter     7. 40.101 /  7. 40.101
  libavresample   4.  0.  0 /  4.  0.  0
  libswscale      5.  3.100 /  5.  3.100
  libswresample   3.  3.100 /  3.  3.100
  libpostproc    55.  3.100 / 55.  3.100
Input #0, image2pipe, from 'pipe:':
  Duration: N/A, bitrate: N/A
    Stream #0:0: Video: mjpeg, yuvj420p(pc, bt470bg/unknown/unknown), 1024x576 [SAR 1:1 DAR 16:9], 25 fps, 25 tbr, 25 tbn, 25 tbc
Input #1, flv, from 'rtmp://192.168.178.32:1935/opencv-hls/test':
  Metadata:
    Server          : NGINX RTMP (github.com/arut/nginx-rtmp-module)
    displayWidth    : 1024
    displayHeight   : 576
    fps             : 0
    profile         : 
    level           : 
  Duration: 00:00:00.00, start: 4.639000, bitrate: N/A
    Stream #1:0: Audio: aac (LC), 44100 Hz, stereo, fltp
    Stream #1:1: Video: h264 (Constrained Baseline), yuv420p(progressive), 1024x576, 29.58 fps, 29.58 tbr, 1k tbn
Stream mapping:
  Stream #0:0 -> #0:0 (mjpeg (native) -> mpeg1video (native))
  Stream #1:0 -> #0:1 (aac (native) -> mp2 (native))
[swscaler @ 0x55f256d63980] deprecated pixel format used, make sure you did set range correctly
Output #0, mpegts, to 'http://localhost:3000/mystream':
  Metadata:
    encoder         : Lavf58.20.100
    Stream #0:0: Video: mpeg1video, yuv420p(progressive), 1024x576 [SAR 1:1 DAR 16:9], q=2-31, 700 kb/s, 25 fps, 90k tbn, 25 tbc
    Metadata:
      encoder         : Lavc58.35.100 mpeg1video
    Side data:
      cpb: bitrate max/min/avg: 0/0/700000 buffer size: 0 vbv_delay: -1
    Stream #0:1: Audio: mp2, 44100 Hz, stereo, s16, 128 kb/s
    Metadata:
      encoder         : Lavc58.35.100 mp2
我总是在音频和视频之间有延迟,并且随着时间的推移而增加。
您对如何同步它们有任何想法吗?
谢谢
安德烈亚

最佳答案

抱歉拼写错误,我只是懒得修复它
不确定是否仍然需要它,但我遇到了类似的问题;音频比视频晚 1 秒开始,并且随着时间的推移进一步漂移。
插入 -vsync 2 后,漂移已修复因此,如果出现重复的时间戳,视频将丢帧(这也可能是帧率问题,请改用 -vsync 1 来丢帧或复制帧以实现请求的 fps,或者使用 -vsync -1 如果您希望 ffmpeg 自动选择1 或 2),对我来说,导致看似漂移的不是音频。正是偶然的帧丢失导致了帧时间戳的困惑。
即使很困难,这也可能解决时间戳问题,确实有可能音频本身正在漂移,在这种情况下 -af aresample=async=1 -adrift_threshold <time-in-sec>可能会成功,ffmpeg 将丢弃样本以使时间戳匹配,较低的值将执行硬(删除/添加)帧,较高的值将执行软(压缩/拉伸(stretch))帧。
如果开始时仍有 1 秒的漂移,您可以使用 -itsoffset <value>在音频输入参数之前手动更正它(或使用个性化代码动态),这将启动带有偏移量的流,它也可以是一个负值来进行反向偏移量,使输入与其余部分相比更早开始.因此,在您的情况下,它将是 -itsoffset -1 .-frame_drop_threshold <nr. of frame-offset>也可能是一个有趣的检查参数,但在这种情况下我会使用音频时间戳作为主时间戳,因为视频帧可能会重复它们的时间戳。
https://ffmpeg.org/ffmpeg-all.html#Advanced-options [ 高级选项 5.11 ]

关于opencv - FFMPEG 将 image2pipe 中的视频与 RTMP 中的音频同步,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63250667/

相关文章:

python - 在openCV warpPerspective中,如何转换左侧图像并将其缝合到右侧图像?

audio - 音频文件频谱图,是时间对振幅还是时间对频率?

flash - 是否可以在没有播放器的情况下始终对 MediaElement.js 进行换肤?

opencv - 如何使用 OpenCV 找出帧之间的差异?

c++ - opengl 3D 编程中的 SDL 与 GLUT

c++ - CV::COLOR_BRG2GRAY 上的段错误

html - 如何在浏览器中播放 .ts 文件(视频/MP2T 媒体类型)?

javascript - 音量超出范围

iphone - 将音频输出到配对的蓝牙设备?

java - Android 通过 Intent 播放 http 视频 - 传递 http header