unity3d - 是否可以将 ffmpeg 输出流式传输到虚拟网络摄像头/虚拟捕获设备/AVFoundation 对象?

标签 unity3d ffmpeg video-streaming avfoundation webcam

我想将来自远程计算机的实时视频流式传输到 Unity3D 中的纹理上。目前,我可以通过 netcat 和 ffmpeg 的组合将流导入我的本地机器。我希望能够让 ffmpeg 将流输出到虚拟网络摄像头,以利用 Unity3D 易于使用的网络摄像头纹理。本地机器正在运行 OSX。

你有任何适用于 OSX 的虚拟视频捕获设备推荐吗?

最佳答案

在 GNU/Linux 上,您可以使用 v4l2loopback ,不能在 OSX 上说。

关于unity3d - 是否可以将 ffmpeg 输出流式传输到虚拟网络摄像头/虚拟捕获设备/AVFoundation 对象?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30316049/

相关文章:

c# - 如何在 iOS 上的 Unity3d 中获取 "free"内存量?

c# - 如何在 LayoutGroup 中跟踪 UI 游戏对象的移动?

javascript - 什么是可以直接访问的好的 C# 数据结构?

c++ - 如何开始使用 C/C++ 实现视频流服务器?

python - 用普通的白色墙壁/地板实现 AR

ffmpeg - 如何安装和运行 phpize

audio - 如何以编程方式调整音频文件的文件夹,使它们的响度大致相同?

video - 我正在使用以下代码将 YouTube 视频转换为音频,但尽管安装了 ffmpeg,但仍出现错误

c++ - 播放传入的视频流

video - FFMPEG-无法为输出文件 #0 写入 header (编解码器参数不正确?): Operation not permitted Error initializing output stream 0:2 --