python - 如何使用 Spacy 按句子分解文档

标签 python spacy sentence text-segmentation

如何将文档(例如,段落、书籍等)分解为句子。

例如,"The dog ran. The cat jumped" 变成 ["The dog ran", "The cat jumped"] with spacy?

最佳答案

最新的答案是这样的:

from __future__ import unicode_literals, print_function
from spacy.lang.en import English # updated

raw_text = 'Hello, world. Here are two sentences.'
nlp = English()
nlp.add_pipe(nlp.create_pipe('sentencizer')) # updated
doc = nlp(raw_text)
sentences = [sent.string.strip() for sent in doc.sents]

关于python - 如何使用 Spacy 按句子分解文档,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46290313/

相关文章:

python - 从不同目录执行时python导入错误

python - EMACS-Python-模式加载错误

python - 使用 Pandas 和 spaCy 提取句子嵌入特征

python - Spacy NER - 训练仅具有实体集合的模型

python - 只有 "Whitespace"规则的 Spacy 分词器

python - 从语法或 Ngrams 生成随机句子?

Python,删除目录 : error File exists

python - 从具有系数的模​​型中提取方程

python - 如何在Python中对段落列表进行分词?

python - 句子中单词的递归排列