java - 如何使用 stanford-parser 从文本文件中提取每个句子?

标签 java nlp stanford-nlp sentiment-analysis

我需要从给定的文本文件中提取每个句子并将该句子存储在字符串中。我使用的是 stanford-parser 的 lexparser-gui,该工具突出显示给定文件的每个句子。有没有办法,我可以使用 stanford-parser.jar 在 java 程序中进行句子提取?如果是的话,任何人都可以提供一个有关如何执行此操作的示例演示。

谢谢, 桑巴夫

最佳答案

如果您只想从文本文件中提取句子,则无需使用解析器。您可以使用常规句子拆分器,如下所示:

    Properties props = new Properties();

    props.setProperty("annotators","tokenize, ssplit");

    StanfordCoreNLP pipeline = new StanfordCoreNLP(props);
    Annotation annotation = new Annotation("This is sentence one. This is sentence two.");
    pipeline.annotate(annotation);
    List<CoreMap> sentences = annotation.get(CoreAnnotations.SentencesAnnotation.class);
    for (CoreMap sentence : sentences) {
        System.out.println(sentence);
    }

关于java - 如何使用 stanford-parser 从文本文件中提取每个句子?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29933278/

相关文章:

java - JPA "cannot be cast to java.sql.Blob"

Java斯坦福NLP : Spell checking

nlp - Spacy中的依存解析树

git - 用于确定时态的 CLI 语法检查器

nlp - 在斯坦福 coreNLP 中使用依赖解析器

Java SAX 解析器命名空间抛出 NullPointerException

java - 多个线程访问同一个类

java - 在 ArrayList 线程安全上移动对象的最佳方法是什么?

使用 Netbeans 在斯坦福 NER 上出现 Java 堆空间错误

java - Stanford Core NLP ner 4.0.0错误: Could not find or load main class stanford-ner.jar;lib.*