audio - 水平并排显示两个视频并导出为一个视频

标签 audio video ffmpeg avisynth

我想要达到的目标:
以编程方式(使用某种脚本)将两个不同的视频组合成一个视频,其中视频并排显示,两个视频的声音同时播放。

我发现至少有两种方法可以并排显示两个视频,但在每一种方法中,我都有一个不同的问题,这使得该过程难以完成:

  • Avisyth 和 Avs2Avi:
    Avisyth 确实让这个过程变得简单。使用这样一个简单的 Avisyth 脚本,您应该能够并排播放两个视频:
    video1=AVISource("d:\file1.avi")
    video2=AVISource("d:\file2.avi")
    StackHorizontal(video1,video2)
    可以使用 avs2avi 创建新的输出文件。
    这里的问题是我什至无法使用avisyth 播放一个avi 文件,因为我收到“AviSource 无法找到fourcc xvid 的解压缩器”消息。我搜索了该问题的解决方案,但没有任何帮助。 GSpot 说我拥有所需的所有编解码器,但我似乎无能为力。因为我无法播放真实视频,所以我不知道最终视频是否会播放两个视频中的声音。 Avisyth 安装正确,我能够运行以下脚本 StackHorizo​​ntal(version ,version)。
  • ffmpeg
    像两个视频和最终文件的魅力一样工作但我没有从两个视频中得到声音,而只有第一个。我发现从第二个视频中添加声音的解决方案是在命令行中使用 libfaac,如下所示:
  • ffmpeg.exe -i video1.mp4 -vf "[in] scale=iw/2:ih/2, pad=2*iw:ih [left]; movie=video2.mp4, scale=iw/3:ih/3 [right]; [left][right] overlay=main_w/2:0 [out]" -c:a libfaac -b:v 768k Output.mp4
    但我总是收到一个错误,即找不到编码器 libfaac。我下载了 libfaac.dll 但仍然没有结果。

    有没有解决这些问题的方法?是否有另一种方法可以通过并排播放的两个视频以编程方式制作一个视频?提前致谢。

    最佳答案

    由于使用 Avisynth 对您来说似乎没有问题,您可以只使用另一个源过滤器。 FFMS2应该非常符合要求 - 它是完全独立的,不依赖于像 AviSource 那样的任何系统解码器。

    关于audio - 水平并排显示两个视频并导出为一个视频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15547239/

    相关文章:

    java - 连接两个(或多个)wav-sound的byte []。产生背景噪声

    php - 如何过滤YouTube视频,使其仅包含具有特定时长的元素?

    python - 拼接图片时ffmpeg视频长度为0

    video - 使用 Avisynth 和 VirtualDub 堆叠 3 个 gmp4 文件,导致颜色错误和文件失真

    html - 是否可以设置 html5 音频标签的样式?

    java - 在 Java 中使用/处理音频

    Android Sinch 视频通话无法切换摄像头和恢复视频 Controller

    c++ - DirectShow:YV12 渲染

    ffmpeg - 在 ffmpeg 视频片段命令中指定时间戳

    python - Python播放mp3/wav文件音频(Pygame混音器)