Looking for nlp Answers? Try Ask4KnowledgeBase
Looking for nlp Keywords? Try Ask4Keywords

nlpIniziare con nlp


Osservazioni

Questa sezione fornisce una panoramica di ciò che nlp è, e perché uno sviluppatore potrebbe voler usarlo.

Dovrebbe anche menzionare eventuali soggetti di grandi dimensioni all'interno di nlp e collegarsi agli argomenti correlati. Poiché la Documentazione per nlp è nuova, potrebbe essere necessario creare versioni iniziali di tali argomenti correlati.

Stanford CoreNLP

Stanford CoreNLP è un popolare toolkit per l'elaborazione del linguaggio naturale che supporta molti compiti core della PNL.

Per scaricare e installare il programma, scaricare un pacchetto di rilascio e includere i file *.jar necessari nel classpath, oppure aggiungere la dipendenza da Maven central. Vedi la pagina di download per maggiori dettagli. Per esempio:

curl http://nlp.stanford.edu/software/stanford-corenlp-full-2015-12-09.zip -o corenlp.zip
unzip corenlp.zip
cd corenlp
export CLASSPATH="$CLASSPATH:`pwd`/*
 

Esistono tre modi supportati per eseguire gli strumenti CoreNLP: (1) utilizzando l' API completamente personalizzabile di base , (2) utilizzando l'API Simple CoreNLP o (3) utilizzando il server CoreNLP . Di seguito è riportato un semplice esempio di utilizzo per ciascuno di essi. Come caso d'uso motivante, questi esempi serviranno a predire l'analisi sintattica di una frase.

  1. API CoreNLP

    public class CoreNLPDemo {
      public static void main(String[] args) {
    
        // 1. Set up a CoreNLP pipeline. This should be done once per type of annotation,
        //    as it's fairly slow to initialize.
        // creates a StanfordCoreNLP object, with POS tagging, lemmatization, NER, parsing, and coreference resolution 
        Properties props = new Properties();
        props.setProperty("annotators", "tokenize, ssplit, parse");
        StanfordCoreNLP pipeline = new StanfordCoreNLP(props);
    
        // 2. Run the pipeline on some text.
        // read some text in the text variable
        String text = "the quick brown fox jumped over the lazy dog"; // Add your text here!
        // create an empty Annotation just with the given text
        Annotation document = new Annotation(text);
        // run all Annotators on this text
        pipeline.annotate(document);
    
        // 3. Read off the result
        // Get the list of sentences in the document
        List<CoreMap> sentences = document.get(CoreAnnotations.SentencesAnnotation.class);
        for (CoreMap sentence : sentences) {
          // Get the parse tree for each sentence
          Tree parseTree = sentence.get(TreeAnnotations.TreeAnnotation.class);
          // Do something interesting with the parse tree!
          System.out.println(parseTree);
        }
    
      }
    }
    
  2. Semplice CoreNLP

    public class CoreNLPDemo {
      public static void main(String[] args) {
        String text = "The quick brown fox jumped over the lazy dog");  // your text here!
        Document document = new Document(text);  // implicitly runs tokenizer
        for (Sentence sentence : document.sentences()) {
          Tree parseTree = sentence.parse();  // implicitly runs parser
          // Do something with your parse tree!
          System.out.println(parseTree);
        }
      } 
    }
    
  3. Server CoreNLP

    Avviare il server con il seguente (impostazione del percorso di classe in modo appropriato):

    java -mx4g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer [port] [timeout]
     

    Ottieni un output in formato JSON per un determinato set di annotatori e stampalo come standard:

     wget --post-data 'The quick brown fox jumped over the lazy dog.' 'localhost:9000/?properties={"annotators":"tokenize,ssplit,parse","outputFormat":"json"}' -O -
     

    Per ottenere il nostro albero di analisi da JSON, possiamo navigare il JSON alle sentences[i].parse .