我对来自 Android 设备的视频流有疑问,也许有人会就我的问题给我一些有用的建议/建议。所以这是交易:
我有一个从 Android 设备流式传输视频的项目。想法是将设备连接到服务器,第一个是流式传输实时视频并将其上传到服务器,第二个设备正在流式传输并观看来自第一个设备。所以有这样的联系:
First Device ----live streaming----> Web Server ------live streaming---->Second Device
,其中第二台设备正在连接到网络服务器。
有什么建议/建议我该怎么做以及我应该使用什么?我很高兴听到你的想法。
提前致谢!
最佳答案
我在玩类似的东西。基本上:
android video capture --> upstream to server --> transcoding --> streaming to players
- 视频由手机拍摄(目前仅用于 Android 的概念验证)并传送到服务器
- 服务器从原始格式(.3gp 内的 H.263 和 AMR-NB)执行转码 容器)到 Flash 视频,以便它可以在绝大多数浏览器中播放
我最大的问题是,对于 H.263,我无法将其实时上传到服务器。该视频有一个标题,其中显示了它的长度和其他信息。然后,为了可以对视频进行转码(我使用 ffmpeg), header 必须存在。但它是在视频捕获完成后由 Android 设置的。 因此,作为解决方法,我正在捕获视频,例如5 秒切片。
看看http://code.google.com/p/moteve并随时贡献 :-)
关于Android 直播视频流问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7569394/