了解 C++ 的人可能知道我所说的“统一构建”是什么意思:
- 一个项目的*.cpp 文件都被有效地#include-ed 成一个超大容量源文件 遵循#include 指令 *.cpp 和 *.h 文件
- 这个源文件被送入编译器
- 完成!你得到了输出二进制文件!
这样做意味着有更少的中间文件 (*.o)、更少的文件读取和磁盘 IO 开销、更少的编译器调用,从而带来更好的构建性能。
我的问题是,对于 Latex 这可能吗?我想要它是因为有一个缓慢的后处理过程,我想在使用 pdflatex 构建我的最终 .pdf 之前运行 .tex 文件。目前,处理我不断增长的 .tex 文件列表大约需要 7 秒。我相信在 一个 文件上运行这个过程要快得多。这激发了我的问题!
总而言之,我想
- 按照 \input{} 和\include{}“合并”所有 .tex 文件到一个超大 .tex 源文件> 每个 .tex 文件中的宏
- 将超大的 .tex 源文件送入慢速后处理 channel (实际上是 Ott tex-filter,仅供引用)
- 将输出直接传输到 pdflatex
- 完成!我得到了输出的 PDF 文件!
第一步就是这里的问题。欢迎任何想法。如果我不需要编写自己的脚本来执行此步骤,那就最好了!
非常感谢!
最佳答案
可以处理这个问题的好工具是 rubber ,在其 combine
模块的帮助下。它将收集所有依赖项,并生成一个可供使用的文件。
关于latex - 是否可以使用 Latex 源文件执行 'unity build'?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5058558/