Skip to main content

Language Model Fine-tuning Toolkit (LMFT)

Project description

PyPI version Downloads Contributions welcome GitHub contributors License Apache 2.0 python_version GitHub issues Wechat Group

LMFT: Language Model Fine-Tuning

Language Model Fine-Tuning, for ChatGLM, BELLE, LLaMA fine-tuning.

lmft实现了ChatGLM-6B的模型FineTune。

Guide

Feature

ChatGLM

THUDM/chatglm-6b 模型的Finetune训练

THUDM/ChatGLM-6B放出的默认模型,模型以 FP16 精度加载,模型运行需要 13GB 显存,训练需要 22GB 显存(batch_size=2)。

Evaluation

纠错能力比较

对话能力比较

Demo

HuggingFace Demo: https://huggingface.co/spaces/shibing624/lmft

run example: examples/gradio_demo.py to see the demo:

python examples/gradio_demo.py

Install

pip install -U lmft

or

pip install -r requirements.txt

git clone https://github.com/shibing624/lmft.git
cd lmft
pip install --no-deps .

Usage

Use LoRA model

release lora model:

  1. 中文拼写纠错(CSC)模型 shibing624/chatglm-6b-csc-zh-lora
from lmft import ChatGlmModel
model = ChatGlmModel("chatglm", "THUDM/chatglm-6b", lora_name="shibing624/chatglm-6b-csc-zh-lora")
r = model.predict(["对下面中文拼写纠错:\n少先队员因该为老人让坐。\n答:"])
print(r) # ['少先队员应该为老人让座。\n错误字:因,坐']

训练ChatGLM-6B模型

支持自定义数据集,数据集格式参考examples/data/test.tsv

example: examples/training_chatglm_demo.py

import sys

sys.path.append('..')
from lmft import ChatGlmModel


def finetune_demo():
    m = ChatGlmModel('chatglm', "THUDM/chatglm-6b", args={'use_lora': True})
    m.train_model(train_data='shibing624/alpaca-zh')
    r = m.predict(['给出三个保持健康的秘诀。', '描述原子的结构。'])
    print(r)
    response, history = m.chat("你好", history=[])
    print(response)
    response, history = m.chat("晚上睡不着应该怎么办", history=history)
    print(response)


def origin_chat_demo():
    m = ChatGlmModel('chatglm', "THUDM/chatglm-6b", args={'use_lora': False})
    response, history = m.chat("你好", history=[])
    print(response)
    response, history = m.chat("晚上睡不着应该怎么办", history=history)
    print(response)


if __name__ == '__main__':
    origin_chat_demo()
    finetune_demo()

output:

问:你好
答:你好

[Round 1]
问:晚上睡不着应该怎么办
答: 想要在晚上入睡,但并不容易,可以参考下述技巧:
1. 睡前放松:尝试进行一些放松的活动,如冥想、深呼吸或瑜伽,帮助放松身心,减轻压力和焦虑。
2. 创造一个舒适的睡眠环境:保持房间安静、黑暗和凉爽,使用舒适的床垫和枕头,确保床铺干净整洁。
3. 规律的睡眠时间表:保持规律的睡眠时间表,尽可能在同一时间上床,并创造一个固定的起床时间。
4. 避免刺激性食物和饮料:避免在睡前饮用含咖啡因的饮料,如咖啡、茶和可乐,以及吃辛辣、油腻或难以消化的食物。
5. 避免过度使用电子设备:避免在睡前使用电子设备,如手机、电视和电脑。这些设备会发出蓝光,干扰睡眠。
如果尝试了这些技巧仍然无法入睡,建议咨询医生或睡眠专家,获取更专业的建议和帮助。

Dataset

  1. 50万条中文ChatGPT指令数据集:BelleGroup/train_0.5M_CN
  2. 100万条中文ChatGPT指令数据集:BelleGroup/train_1M_CN
  3. 5万条英文ChatGPT指令数据集:50k English Stanford Alpaca dataset
  4. 2万条中文ChatGPT指令数据集:shibing624/alpaca-zh
  5. 69万条中文指令数据集(Belle50万条+Guanaco19万条):Chinese-Vicuna/guanaco_belle_merge_v1.0

FAQ

  1. 问:为啥没有int4量化模型的Finetune训练?

答:THUDM放出了2个int4量化模型,分别是 THUDM/chatglm-6b-int4THUDM/chatglm-6b-int4-qe 模型,是基于 THUDM/ChatGLM-6B 的int4并对Embedding量化后的模型,模型运行仅需要 4.3GB 显存。

训练方法参考官方给出的P-tuning方法,INT4 量化模型的训练最低只需 6.7G 显存。

Contact

  • Issue(建议):GitHub issues
  • 邮件我:xuming: xuming624@qq.com
  • 微信我:加我微信号:xuming624, 备注:姓名-公司-NLP 进NLP交流群。

Citation

如果你在研究中使用了lmft,请按如下格式引用:

APA:

Xu, M. lmft: Lanauge Model Fine-Tuning toolkit (Version 1.1.2) [Computer software]. https://github.com/shibing624/lmft

BibTeX:

@misc{lmft,
  author = {Xu, Ming},
  title = {lmft: Language Model Fine-Tuning toolkit},
  year = {2023},
  publisher = {GitHub},
  journal = {GitHub repository},
  howpublished = {\url{https://github.com/shibing624/lmft}},
}

License

lmft授权协议为 The Apache License 2.0,可免费用做商业用途。请在产品说明中附加lmft的链接和授权协议。

  • ChatGLM-6B的模型权重仅限学术研究用,具体见MODEL_LICENSE
  • LLAMA的模型权重仅限学术研究用,具体见LICENSE

Contribute

项目代码还很粗糙,如果大家对代码有所改进,欢迎提交回本项目,在提交之前,注意以下两点:

  • tests添加相应的单元测试
  • 使用python -m pytest -v来运行所有单元测试,确保所有单测都是通过的

之后即可提交PR。

Reference

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

lmft-0.2.5.tar.gz (30.2 kB view details)

Uploaded Source

File details

Details for the file lmft-0.2.5.tar.gz.

File metadata

  • Download URL: lmft-0.2.5.tar.gz
  • Upload date:
  • Size: 30.2 kB
  • Tags: Source
  • Uploaded using Trusted Publishing? No
  • Uploaded via: twine/3.4.2 importlib_metadata/4.12.0 pkginfo/1.7.0 requests/2.25.1 requests-toolbelt/0.9.1 tqdm/4.62.3 CPython/3.8.8

File hashes

Hashes for lmft-0.2.5.tar.gz
Algorithm Hash digest
SHA256 613673f29425c81df6ee88f23f8de6acf41caee3d924c160bbb0623ef11f4c7c
MD5 237e4b5127249ad6d26768a4ad6c53b6
BLAKE2b-256 7a2f02a3244d3deb94e461c1df0affbd99aca5abcf76f991e2ea4f655b41e511

See more details on using hashes here.

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page