Create a Python package.
Project description
🔥ChatLLM 基于知识库🔥
Install
pip install -U chatllm
Docs
Usages
from chatllm.applications import ChatBase
qa = ChatBase()
qa.load_llm4chat(model_name_or_path="THUDM/chatglm-6b")
for i, _ in qa(query='周杰伦是谁', knowledge_base='周杰伦是傻子'):
pass
# 根据已知信息无法回答该问题,因为周杰伦是中国内地流行歌手、演员、音乐制作人、导演,
# 是具有一定的知名度和专业能力的人物,没有提供足够的信息无法判断他是傻子。
Click to ChatPDF
from chatllm.applications.chatpdf import ChatPDF
qa = ChatPDF(encode_model='nghuyong/ernie-3.0-nano-zh')
qa.load_llm4chat(model_name_or_path="THUDM/chatglm-6b")
for i, _ in qa(query='东北证券主营业务'):
pass
# 根据已知信息,东北证券的主营业务为证券业务。公司作为证券公司,主要从事证券经纪、证券投资咨询、与证券交易、
# 证券投资活动有关的财务顾问、证券承销与保荐、证券自营、融资融券、证券投资基金代销和代销金融产品待业务。
Click to 开发部署
-
ChatGLM-6B 模型硬件需求
量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调) FP16(无量化) 13 GB 14 GB INT8 8 GB 9 GB INT4 6 GB 7 GB -
Embedding 模型硬件需求
本项目中默认选用的 Embedding 模型 GanymedeNil/text2vec-large-chinese 约占用显存 3GB,也可修改为在 CPU 中运行。
开发部署
软件需求
本项目已在 Python 3.8 - 3.10,CUDA 11.7 环境下完成测试。已在 Windows、ARM 架构的 macOS、Linux 系统中完成测试。
从本地加载模型
1. 安装环境
参见 安装指南。
Click to TODO
-
增加UI
-
增加ChatPDF
-
增加本地知识库组件
-
增加互联网搜索组件
-
增加知识图谱组件
-
增加微调模块
-
增加流式输出
-
增加http接口
-
增加grpc接口
======= History
0.0.0 (2023-04-11)
- First release on PyPI.
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Close
Hashes for ChatLLM-2023.4.26.15.32.44.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | e3b7238ae2f8ee9bca72eca2e938dfb475d54d79ac6ab48fc9c38aaa680feb21 |
|
MD5 | 0a270f9a455febc4c5ca435ee0517d67 |
|
BLAKE2b-256 | 643f34d9c2fa18f082243b7d60a4f5e6bfa0dfc74029cf64ba64db1cb4fe4e94 |
Close
Hashes for ChatLLM-2023.4.26.15.32.44-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 4668ad11025b562bed1f7ab9dc4372e9d88c6cbd9f9b2dfc84d9963403c829ac |
|
MD5 | 4f7adee3d572d0ebdcbcfd16d635faf9 |
|
BLAKE2b-256 | f64cf346ee1242fbecacabc179c961c3afc55f24b748f83ebf74d8e0c9926d89 |