rdf - 使用 Virtuoso 的批量加载过程加载 gzip 压缩的 RDF 源文件

标签 rdf virtuoso

我想在 Virtuoso 中加载一批经过 gzip 压缩的 RDF 源文件。目前我使用以下 bash 脚本:

for file in $(find `pwd` -type f -name "*.gz"); do isql -S <port> "EXEC=DB.DBA.TTLP_MT(gz_file_open('$file'), '', '<graph>', 480, 0, 1);"; done

但是,我更喜欢使用 the bulk loading process 。到目前为止,我只能通过首先解压所有文件来做到这一点,占用大量的硬盘空间,因为压缩率通常约为 90% 有没有办法指示 virtuoso 的批量加载过程使用 gzip 压缩的 RDF 源文件作为输入?

最佳答案

Virtuoso 还可以处理 gzip 压缩文件。您不需要提取它们。 ld_dir_all() 或 ld_dir() 将处理这个问题(如您在此处看到的: click )

关于rdf - 使用 Virtuoso 的批量加载过程加载 gzip 压缩的 RDF 源文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28694750/

相关文章:

html - 用语义注释 HTML IMG

java - sparql-service 的非结构化返回

drupal-7 - 从自定义商店创建 Drupal SPARQL View ?

sparql - Virtuoso 中的属性函数

ubuntu - 如何在 Ubuntu 上启动 OpenLink Virtuoso

sparql - 如何查询 OWL 模式以获取实例之间的路径

rdf - 使用 SPARQL 和 Jena 检索 OWL 类层次结构中的所有路径

java - 当我想用 jena 加载模型时出现异常

sparql - 使用 SPARQL 1.1 过滤 RDF Collection CONSTRUCT 中的重复头绑定(bind)

authentication - Virtuoso 端点中 SPARQL 插入的 HTTP 请求身份验证