聲明:轉載請注明出處,謝謝:http://www.itdecent.cn/p/82f1aef7c3da
另外,更多實時更新的個人學習筆記分享,請關注:
知乎:https://www.zhihu.com/people/yuquanle/columns
公眾號:StudyForAI
CSDN地址:http://blog.csdn.net/m0_37306360
Stanford CoreNLP依存句法分析(dependency parse)
安裝:pip install stanfordcorenlp
國內源安裝:pip install stanfordcorenlp -i https://pypi.tuna.tsinghua.edu.cn/simple
from stanfordcorenlp import StanfordCoreNLP
使用stanfordcorenlp進行依存句法分析
先下載模型,下載地址:https://nlp.stanford.edu/software/corenlp-backup-download.html
對中文進行依存句法分析
zh_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27', lang='zh')
s_zh = '我愛自然語言處理技術!'
dep_zh = zh_model.dependency_parse(s_zh)
print(dep_zh)
[('ROOT', 0, 4), ('nsubj', 4, 1), ('advmod', 4, 2), ('nsubj', 4, 3), ('dobj', 4, 5), ('punct', 4, 6)]
對英文進行依存句法分析
eng_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27')
s_eng = 'I love natural language processing technology!'
dep_eng = eng_model.dependency_parse(s_eng)
print(dep_eng)
[('ROOT', 0, 2), ('nsubj', 2, 1), ('amod', 6, 3), ('compound', 6, 4), ('compound', 6, 5), ('dobj', 2, 6), ('punct', 2, 7)]
Hanlp依存句法分析
安裝:pip install pyhanlp
國內源安裝:pip install pyhanlp -i https://pypi.tuna.tsinghua.edu.cn/simple
from pyhanlp import *
s_zh = '我愛自然語言處理技術!'
dep_zh = HanLP.parseDependency(s_zh)
print(dep_zh)
1 我 我 r r _ 2 主謂關系 _ _
2 愛 愛 v v _ 0 核心關系 _ _
3 自然語言處理 自然語言處理 v v _ 4 定中關系 _ _
4 技術 技術 n n _ 2 動賓關系 _ _
5 ! ! wp w _ 2 標點符號 _ _