audio - 如何使用ffmpeg制作实时视频和音频流(不是VoD)?

标签 audio video ffmpeg

我想从本地文件生成实时音频/视频流。

我尝试了以下方法:

ffmpeg -re -thread_queue_size 4 -i source_video_file.ts -strict -2 -vcodec copy -an -f rtp rtp://localhost:10000 -acodec copy -vn -sdp_file saved_sdp_file -f rtp rtp://localhost:20000



然后:

ffplay saved_sdp_file



它似乎工作正常,但看起来像是“视频点播”,因为我可以随时使用ffplay重播此文件。

但是我需要ffplay仅在ffmpeg流实例运行时显示视频/音频(上面的第一个命令)。

我该如何实现?

谢谢!

最佳答案

此代码适用于实时视频流:

proc liveStreaming {} {

	
	#ffmpeg command to capture live streaming in background
	exec ffplay -f dshow -i video="Integrated Webcam" >& $logFile &
  
}
liveStreaming


使用以下代码使用fmmpeg,这也可以:

proc liveStreaming {} {

	
	#ffmpeg command to capture live streaming
	exec ffmpeg -f dshow -i video="Integrated Webcam" -f sdl2 -
  
}
liveStreaming


如果sdl2不起作用,您也可以使用“sdl”。

关于audio - 如何使用ffmpeg制作实时视频和音频流(不是VoD)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46738316/

相关文章:

php - 使用 FFMPEG 将图像和音频文件转换为视频

android - 如何使用 MediaCodec 和 MediaMuxer 录制视频和音频

java - 将音频作为原始流播放时发出尖锐的白色声音

javascript - TS 文件不播放 hls.js

audio - 如何将音频文件从应用程序复制到电话本地存储

macos - 在Safari上调用getUserMedia会使Mac OS X上的声音静音一秒钟

javascript - 引用错误 : AudioContext not defined

ios - Swift - 如何获得视频维度?

c++ - 如何查看网络流(http)中的视频?

ffmpeg - php-fpm 容器中的 Laradock FFMpeg