Skip to main content

A micro tokenizer for Chinese

Project description

微型中文分词器

一个微型的中文分词器,目前提供了七种分词算法:

  1. 按照词语的频率(概率)来利用构建 DAG(有向无环图)来分词,使用 Trie Tree 构建前缀字典树

  2. 使用隐马尔可夫模型(Hidden Markov Model,HMM)来分词

  3. 融合 DAG 和 HMM 两种分词模型的结果,按照分词粒度最大化的原则进行融合得到的模型

  4. 正向最大匹配法

  5. 反向最大匹配法

  6. 双向最大匹配法

  7. 基于 CRF (Conditional Random Field, 条件随机场) 的分词方法

特点 / 特色

  • 面向教育:可以导出 graphml 格式的图结构文件,辅助学习者理解算法过程

  • 良好的分词性能:由于使用类似 结巴分词 的算法,具有良好的分词性能

  • 具有良好的扩展性:使用和 结巴分词 一样的字典文件,可以轻松添加自定义字典

  • 自定义能力强

  • 提供工具和脚本帮助用户训练自己的分词模型而不是使用内建的模型


更多内容见仓库 https://github.com/howl-anderson/MicroTokenizer

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

MicroTokenizer-0.8.0.tar.gz (12.1 MB view hashes)

Uploaded Source

Built Distribution

MicroTokenizer-0.8.0-py2.py3-none-any.whl (24.4 MB view hashes)

Uploaded Python 2 Python 3

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page