我知道如何使用 AVFoundation 将屏幕的内容捕获到电影文件中,但我想改为捕获 NSView 的内容。我的应用程序在 View 中执行一些操作,目前要生成电影文件,我必须记录整个屏幕(当然是裁剪的)。如果应用程序可以在后台运行并仍然记录 session ,那么对用户来说会更容易。我考虑过创建一个假屏幕并尝试反射(reflect)那里的 View 内容,但这似乎过于复杂。
最佳答案
我在纯 CALayer 树上取得了一些成功,使用 CARenderer 将旧式 OpenGL 上下文放入 CVOpenGLTextureCache/AVAssetWriter,然后将其显示到常规 GL View 或图层进行显示。
然而,旧的渲染器有一些怪癖,所以你可能需要稍微调整一些东西才能使其与视网膜等一起工作。还没有尝试过正确的 NSView 树,CA 维护者对它的工作感到惊讶在全局开发者大会上。因此 future 的支持可能会受到限制。
这似乎是一个很好的请求,我很乐意引用您的雷达。
关于macos - AV 将* View *内容捕获到电影中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39935550/