ubuntu - 创建一个虚拟麦克风 Ubuntu 16.04 并将音频从 RTSP IP 摄像机流式传输到其中

标签 ubuntu ffmpeg video-streaming audio-streaming ip-camera

我需要在 Ubuntu 16.04 机器上创建虚拟网络摄像头和虚拟麦克风,以便通过我的网络浏览器使用 WebRTC 在网络应用程序中使用。

我需要从 IP 摄像机(RTSP 流)向这两个虚拟设备提供视频和音频。
直接在 VLC 中播放 RTSP 流适用于视频和音频。

为此,我创建了一个带有 video4linux2 的/dev/video1。
我可以将 IP 摄像机馈送到/dev/video1。

ffmpeg -i rtsp://ip_address:554/streaming/channels/101/ -f v4l2 /dev/video1



如果我查看 VLC 播放器,我可以选择/dev/video1 作为视频设备,但我只有“hw:0,0”作为音频设备,这是我的内置麦克风。

如何正确地将此类 RTSP 流馈送到虚拟网络摄像头和虚拟麦克风?

最佳答案

您需要某种环回音频驱动程序。如果您想在 Alsa 级别执行此操作,您可能会丢失 snd-aloop模块。 https://www.alsa-project.org/main/index.php/Matrix:Module-aloop#aloop_driver

如果您的目标目的地支持 Pulseaudio,您可以添加一个空接收器并使用它的监视器源来记录它。

pactl load-module module-null-sink sink_name=video1

然后将监视器源命名为 video1.source .

https://wiki.archlinux.org/index.php/PulseAudio/Examples

然后,您需要从 FFmpeg 添加一个额外的输出。这可能就像添加 -f pulse "video1" 之类的东西一样简单到你现在所拥有的为止。

关于ubuntu - 创建一个虚拟麦克风 Ubuntu 16.04 并将音频从 RTSP IP 摄像机流式传输到其中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43559297/

相关文章:

ubuntu - 使用vnc连接ubuntu

python-3.x - Zipline 导入错误。没有名为 zipline.transforms 的模块

ubuntu - Nginx 500 错误页面没有任何错误日志

gcc - FFMpeg 编译错误 "Undefined symbols for architecture x86_64"

audio - 使用 ffmpeg 合并多个视频和一个音频。在音频未结束时循环播放所有视频

video - FFmpeg 流加密

iphone - 访问 iOS 的视频解码器?

c++ - LibVLC Demux 无法查看

android - 在 Ubuntu 上构建 Android 源代码

ffmpeg - 为 Windows 64 位应用程序构建静态 FFmpeg 库