user-interface - GUI 输出如何从应用程序到硬件级别工作?

标签 user-interface opengl graphics gtk xserver

我正在进入 GUI 编程并做了一些研究。现在对我来说并不是一切都清楚。
如果我使用 GTK+ 作为工具包,它如何与显卡通信?

在 Linux 系统上,我想它会是 GTK --> X Server --(OpenGL)--> 显卡。
这是正确的吗?

我读到一些 GUI 直接绘制 OpenGL(例如 Blender3D),那么其他应用程序如何绘制它们的 GUI?

如果显卡的唯一 API(我知道)是 Direct3D 和 OpenGL,那么软件渲染和硬件加速之间有什么区别?

做“软件渲染”的软件能不能直接写到显卡的framebuffer,让OpenGL不受影响?

PS:很抱歉有很多问题,但我真的不明白这一切是如何运作的,谢谢你的每一个回答:)

最佳答案

On a Linux system I suppose it would be GTK --> X Server --(OpenGL)--> graphics card. Is this right?



不,Linux 上的 GTK+ 成功了
                                              /-[ if direct context ]---\
                     /--> OpenGL >-+---------/                           \
                    /              \-> GLX -+--------------\              \
                   /                         \              \              \
GTK+ -+-> cairo >-+---> XRender >--------+----+-> Xlib/xcb >-+-> X server >-+-> Kernel Module >-> GPU
       \           \–-> pixmap buffer >–/
        \                              /
         \―---------------------------/

I read that some GUIs directly draw OpenGL (e.g. Blender3D), so how do other apps draw their GUIs?



它只是“Blender”(没有尾随 3D)。 Blender 的 GUI 工具包使用 OpenGL 作为其唯一的后端,是的。但是 GUI 不是直接使用 OpenGL 绘制的,那样使用起来会很麻烦(使用 OpenGL 调用绘制每个按钮。Blender 有自己的工具包。GTK+ 是另一个工具包,但与 Blender 无关(事实上,一个我最喜欢的项目是提取 Blender 的 GUI 工具包,以便在独立项目中使用)。

GTK+ 和 Qt 等工具包旨在实现最大的可移植性。 Blender 很高兴知道会有 OpenGL 可用。为 GTK+ 或 Qt 开发的应用程序可能能够在不支持 3D 的系统上运行,因此 GTK+ 和 Qt 的设计允许在多个后端上运行。 GTK+ 现在在版本 3 中使用 Cairo 图形引擎作为图形后端。 Cairo 也有自己的后端,即绘制到像素图(像素图像)的软件光栅化器,或将绘图命令代理到底层图形架构。对于 Linux 上的 Cairo,这可能是 OpenGL 或 X11(核心和 XRender 协议(protocol)扩展)。

If the only APIs (that i know of) for graphics cards is Direct3D and OpenGL, what is the distinction between software rendering and hardware acceleration?



OpenGL 和 Direct3D 都不与显卡通信。他们与显卡的驱动程序交谈。因此,您可以选择自己与驱动程序交谈,绕过 OpenGL 和 Direct3D。但你为什么要这样做?这很乏味。

此外,在 Windows 上,您还有用于绘图的 GDI 和/或 WPF(Windows Presentation Foundation)以及 Direct2D。

在 Linux 上,您可以获得用于绘制精美图片的 X11 核心和 XRender 扩展协议(protocol)。

另一个正在兴起的 API 是 OpenVG,它旨在标准化所有这些 2D 绘图 API。至少在 Linux 中,OpenGL 和 OpenVG 已被选为长期唯一可用的抽象绘图 API,并带有一些用于管理帧缓冲区和用户输入的窗口系统。 Wayland 正在开发中(我完全不喜欢这个设计)和 X11,我认为它的设计更好(它是一个面向网络的系统,允许分布式执行,我认为这在 future 非常重要),但需要一个对某些“X12”进行彻底改造——清理遗留的垃圾,使其在接触颜色空间中运行,使连接可转换(这样您就可以在 X 服务器之间迁移客户端,这将允许以更优雅的方式锁定 X session ,通过将所有连接移动到某个影子 X 服务器中,而不是尝试使用锁定屏幕保护程序来阻止访问)。

Can software that does "software rendering" directly write to the framebuffer of the graphics card, so that OpenGL is untouched?



不在现代操作系统上。但是,操作系统可能会通过一些帧缓冲区 API(Linux 上的/dev/fb0)为您提供对显卡的抽象访问。然而,帧缓冲区是不受管理的,所以如果有一个 X 服务器或 Wayland 正在运行,它们中的任何一个都是管理 FB 的任务,那么这不关你的事。

关于user-interface - GUI 输出如何从应用程序到硬件级别工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8777531/

相关文章:

c - 如何使用 C 创建类似 Windows 的 GUI

java - JTable 将 JComboBox 和 JCheckBox 恢复为选择后的值

c++ - Opengl 中的纹理采样

c++ - 当用户按下某些键时,如何制作一个改变颜色的正方形?

graphics - 在 Vulkan 中,您如何将每个单独的视频卡与它们直接连接的显示器相关联

java - 将组件添加到 NetBeans GUI Builder 中的选项板

python gui 事件乱序

c++ - 实现绕组数算法来计算内部和外部区域(OpenGL,c++)

graphics - 使用 glBindAttribLocation 会提高性能吗?

java - fillArc 方法绘制尺寸错误的圆弧