Skip to main content

Language Technology Platform

Project description

LTP VERSION CODE SIZE CONTRIBUTORS LAST COMMIT Documentation Status PyPI Downloads

LTP 4

LTP(Language Technology Platform) 提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。

If you use any source codes included in this toolkit in your work, please kindly cite the following paper. The bibtex are listed below:

@article{che2020n,
  title={N-LTP: A Open-source Neural Chinese Language Technology Platform with Pretrained Models},
  author={Che, Wanxiang and Feng, Yunlong and Qin, Libo and Liu, Ting},
  journal={arXiv preprint arXiv:2009.11616},
  year={2020}
}

快速使用

from ltp import LTP
ltp = LTP() # 默认加载 Small 模型
seg, hidden = ltp.seg(["他叫汤姆去拿外衣。"])
pos = ltp.pos(hidden)
ner = ltp.ner(hidden)
srl = ltp.srl(hidden)
dep = ltp.dep(hidden)
sdp = ltp.sdp(hidden)

详细说明

模型

模型下载

模型 大小 sha256
Base(v3) 491.9MB 5c24a476d505a8c0a3385bbecb0ce816e876922450edf93e2d2bc6f3a01795ca
Small(v3) 156.8MB 2a9a090f84ae0effc37c3d5ba2cb20e2856b149b380eeeebc6f9b3808ad8e9e4
Tiny(v3) 31.3MB 0f40bce82c4610829aabb3363e82305289ced721cc846631907af3594bea453e
Base(v2) 531MB 4ba5b16e90c073fced2ba45ebd6a663e78bf081f8a83a3d68582d53ce544ed3a
Small(v2) 170MB 26e79fc2912bf2ed9bff72c1de908045e471e4f520b1652f9db246bc38b7b6c6
Tiny(v2) 34MB 8ed110819c9fd600c1e9cd99a82107d79c804b93d0701055e9215b93035393ba
Small(v1) 170MB d78bd6507eb4b1a45859ca4d36065dc6ce69202a8fc0edfdce29934fd8307222
Tiny(v1) 34MB 877bb0cd97d82fdbd2c6f74144c4f9abf9e44ce79075cd17bde02abe314a1e49

备注: Tiny模型使用electra前三层进行初始化, 4.0.3.post1 版本包含对v1模型的fix,新版本请使用v2模型, 其中v3模型是从v2转换得来

注意: LTP 4.1.X 与旧版本 v1,v2 模型不兼容

V2/v3 指标

模型 分词 词性 命名实体 语义角色 依存句法 语义依存 速度(句/S)
LTP 4.0 (Base) 98.7 98.5 95.4 80.6 89.5 75.2
LTP 4.0 (Small) 98.4 98.2 94.3 78.4 88.3 74.7 12.58
LTP 4.0 (Tiny) 96.8 97.1 91.6 70.9 83.8 70.1 29.53

备注: 本版本SDP采用 CCL2020语义依存分析 语料,其他语料同V1

V1 指标

模型 分词 词性 命名实体 语义角色 依存句法 语义依存 速度(句/S) 模型大小
LTP 3.X 97.8 98.3 94.1 77.92(Gold Pi) 81.1 78.9 2.75 1940M
LTP 4.0 (Small) 98.4 98.2 94.3 77.2(端到端) 88.0 79.9 12.58 171M
LTP 4.0 (Tiny) 96.8 97.2 91.6 68.1(端到端) 82.6 75.5 29.53 34M

测试环境如下:

  • Python 3.7
  • LTP 4.0 Batch Size = 1
  • Centos 3.10.0-1062.9.1.el7.x86_64
  • Intel(R) Xeon(R) CPU E5-2640 v4 @ 2.40GHz

备注: 速度数据在人民日报命名实体测试数据上获得,速度计算方式均为所有任务顺序执行的结果。另外,语义角色标注与语义依存新旧版采用的语料不相同,因此无法直接比较(新版语义依存使用Semeval 2016语料,语义角色标注使用CPB3.0语料)。

模型算法

  • 分词: Electra Small1 + Linear
  • 词性: Electra Small + Linear
  • 命名实体: Electra Small + Relative Transformer2 + Linear
  • 依存句法: Electra Small + BiAffine + Eisner3
  • 语义依存: Electra Small + BiAffine
  • 语义角色: Electra Small + BiAffine + CRF

构建 Wheel 包

python setup.py sdist bdist_wheel
python -m twine upload dist/*

作者信息

开源协议

  1. 语言技术平台面向国内外大学、中科院各研究所以及个人研究者免费开放源代码,但如上述机构和个人将该平台用于商业目的(如企业合作项目等)则需要付费。
  2. 除上述机构以外的企事业单位,如申请使用该平台,需付费。
  3. 凡涉及付费问题,请发邮件到 car@ir.hit.edu.cn 洽商。
  4. 如果您在 LTP 基础上发表论文或取得科研成果,请您在发表论文和申报成果时声明“使用了哈工大社会计算与信息检索研究中心研制的语言技术平台(LTP)”. 同时,发信给car@ir.hit.edu.cn,说明发表论文或申报成果的题目、出处等。

脚注

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

ltp-4.1.0b0.tar.gz (44.4 kB view hashes)

Uploaded source

Built Distribution

ltp-4.1.0b0-py3-none-any.whl (69.2 kB view hashes)

Uploaded py3

Supported by

AWS AWS Cloud computing Datadog Datadog Monitoring Facebook / Instagram Facebook / Instagram PSF Sponsor Fastly Fastly CDN Google Google Object Storage and Download Analytics Huawei Huawei PSF Sponsor Microsoft Microsoft PSF Sponsor NVIDIA NVIDIA PSF Sponsor Pingdom Pingdom Monitoring Salesforce Salesforce PSF Sponsor Sentry Sentry Error logging StatusPage StatusPage Status page