分词工具
Project description
分词工具
python版(有node版)
安装
pip install nlp_fenci
command-line
搜狗分词
$ sougou_fenci 武汉市长江大桥
武汉市 n
长江 n
大桥 n
百度分词
$ baidu_fenci 武汉市长江大桥
武汉长江大桥 地名
sougou 分词 code
import sougou_fenci
resp = sougoou_fenci.sougou("武汉市长江大桥")
for result_item in resp.result:
print(row_format.format(result_item[0], result_item[1]))
# 结 果
# 武汉市 n
# 长江 n
# 大桥 n
baidu 分词 code
import sougou_fenci
resp = sougoou_fenci.baidu("武汉市长江大桥")
for result_item in resp.result:
print(row_format.format(result_item[0], result_item[1]))
# 结 果
# 武汉市 地名
# 长江大桥 地名
Project details
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
nlp_fenci-1.2.2.tar.gz
(2.8 kB
view hashes)
Built Distribution
Close
Hashes for nlp_fenci-1.2.2-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 866096e3a20e8ad4f82fd1fd97fcda9298e047024a56abe4a7a5a59f27211701 |
|
MD5 | e018f2d756fbfa96159ad35834bec03b |
|
BLAKE2b-256 | 202cb87a190663e4f3761a31fee28283727a05890b1c337673b47c5e1f1e0126 |