Skip to main content

中文分词

Project description

fenci

中文分词模块:继承了jieba分词的基本算法逻辑,进行了全方位的代码优化,还额外提供了HMM算法的训练功能支持。

设计

数据存储格式

不使用marshal,这并不规范,也不使用pickle,在某些情况下确实使用pickle是必要的,但至少在这里数据格式还没必要上pickle。而是使用更通用和更安全的json数据存储格式。

模型数据就存放在 \AppData\Local\Temp 里面的 fenci.cache ,其就是一个json文件。

读写速度模型文件未建立需要1秒多,模型文件建立正常读写文件需要0.3秒多,值得一提的是本程序经过优化只要你一直调用 s=Segment() 同一对象,则读取模型只会读取一次,也就是后面多次cut则前面的0.3秒加载时间几乎可以忽略笔记。

USAGE

lcut or cut

from fenci.segment import Segment
segment = Segment()
res = segment.lcut("这是一段测试文字。")

load_userdict

from fenci.segment import Segment
s = Segment()
s.load_userdict('tests/test_dict.txt')

training

指定root和regexp来搜索指定文件夹下的文本,其中的文本格式如下:

’  我  扔  了  两颗  手榴弹  ,  他  一下子  出  溜  下去  。

即该分词的地方空格即可。

    def training(self, root=None, regexp=None):
        """
        根据已经分好词的内容来训练
        :param root:
        :param regexp:
        :return:
        """

注意training之后词典库还只是on-fly模式,要保存到模型需要调用方法save_model

training_hmm

训练HMM模型,如果设置update_dict=True,则语料库的词语数据也会刷入进来。

    def training_hmm(self, root=None, regexp=None, update_dict=False):

save_model

所有on-fly的词库都导入到模型里面

    def save_model(self, save_hmm=False):

add_word

    def add_word(self, word, freq=1):

tokenize 和 lcut

给nltk调用提供的接口

hmm_segment

默认内部构建的hmm分词器

    self.hmm_segment = HMMSegment(traning_root=traning_root,
                                  traning_regexp=traning_regexp,
                                  cache_file=self.cache_file)

HMMSegment

training

指定root和regexp来搜索指定文件夹下的文本,其中的文本格式如下:

’  我  扔  了  两颗  手榴弹  ,  他  一下子  出  溜  下去  。

即该分词的地方空格即可。

    def training(self, root=None, regexp=None, training_mode='update'):

提供了两种训练模式 update 和 replace 。

update模式将在原有HMM训练数据基础上继续训练,注意训练之后的模型数据仍是on-fly的。保存需要调用save_model方法。

save_model

将hmm_segment分词器的模型保存下来。

self.hmm_segment.save_model()

CHANGELOG

0.3.2

移除原线程锁,使用文件锁,多进程多线程对于模型的共用问题都能很好地解决。

0.3.1

更安全的文件写方式

0.3.0

一番整理,现在本模块不再依赖其他模块。

0.2.2

使用简化版本的simple_nltk。

0.2.0

彻底脱离原jieba分词项目结构,整体重新设计。

0.1.2

加入HMM训练,重新训练数据,原字典数据较小。

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

fenci-0.3.2.tar.gz (714.4 kB view details)

Uploaded Source

Built Distribution

fenci-0.3.2-py3-none-any.whl (710.6 kB view details)

Uploaded Python 3

File details

Details for the file fenci-0.3.2.tar.gz.

File metadata

  • Download URL: fenci-0.3.2.tar.gz
  • Upload date:
  • Size: 714.4 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/3.6.0 importlib_metadata/4.8.2 pkginfo/1.8.0 requests/2.26.0 requests-toolbelt/0.9.1 tqdm/4.62.3 CPython/3.10.0

File hashes

Hashes for fenci-0.3.2.tar.gz
Algorithm Hash digest
SHA256 8cad8a34aeadd31cab1b8720ab988d2da779a3926a88ca175c5fca351b00d7b1
MD5 7b2bcf38502cd06d7af74b92f2a7cb0a
BLAKE2b-256 c4f4b5b892f88b79e44b3dd1f68bdc097c8628b2e7af6aa4df13be27988c972b

See more details on using hashes here.

File details

Details for the file fenci-0.3.2-py3-none-any.whl.

File metadata

  • Download URL: fenci-0.3.2-py3-none-any.whl
  • Upload date:
  • Size: 710.6 kB
  • Tags: Python 3
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/3.6.0 importlib_metadata/4.8.2 pkginfo/1.8.0 requests/2.26.0 requests-toolbelt/0.9.1 tqdm/4.62.3 CPython/3.10.0

File hashes

Hashes for fenci-0.3.2-py3-none-any.whl
Algorithm Hash digest
SHA256 e2a2ee8ae6db7b50861faf92548f44403cc9c62cdaed1e7b2ec67df0582a4994
MD5 549994886e2f9855f3abff5179d804cd
BLAKE2b-256 22908f35220e8e77fe549a9b2f1026aa00d148f0a888b8243c23779c4386855d

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page