Create a Python package.
Project description
🔥ChatLLM 基于知识库🔥
Install
pip install -U chatllm
Docs
Usages
from chatllm.applications import ChatBase
qa = ChatBase()
qa.load_llm4chat(model_name_or_path="THUDM/chatglm-6b")
for i, _ in qa(query='周杰伦是谁', knowledge_base='周杰伦是傻子'):
pass
# 根据已知信息无法回答该问题,因为周杰伦是中国内地流行歌手、演员、音乐制作人、导演,
# 是具有一定的知名度和专业能力的人物,没有提供足够的信息无法判断他是傻子。
Click to ChatPDF
from chatllm.applications.chatpdf import ChatPDF
qa = ChatPDF(encode_model='nghuyong/ernie-3.0-nano-zh')
qa.load_llm4chat(model_name_or_path="THUDM/chatglm-6b")
for i, _ in qa(query='东北证券主营业务'):
pass
# 根据已知信息,东北证券的主营业务为证券业务。公司作为证券公司,主要从事证券经纪、证券投资咨询、与证券交易、
# 证券投资活动有关的财务顾问、证券承销与保荐、证券自营、融资融券、证券投资基金代销和代销金融产品待业务。
Click to 开发部署
-
ChatGLM-6B 模型硬件需求
量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调) FP16(无量化) 13 GB 14 GB INT8 8 GB 9 GB INT4 6 GB 7 GB -
Embedding 模型硬件需求
本项目中默认选用的 Embedding 模型 GanymedeNil/text2vec-large-chinese 约占用显存 3GB,也可修改为在 CPU 中运行。
开发部署
软件需求
本项目已在 Python 3.8 - 3.10,CUDA 11.7 环境下完成测试。已在 Windows、ARM 架构的 macOS、Linux 系统中完成测试。
从本地加载模型
1. 安装环境
参见 安装指南。
Click to TODO
-
增加UI
-
增加ChatPDF
-
增加本地知识库组件
-
增加互联网搜索组件
-
增加知识图谱组件
-
增加微调模块
-
增加流式输出
-
增加http接口
-
增加grpc接口
======= History
0.0.0 (2023-04-11)
- First release on PyPI.
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Close
Hashes for ChatLLM-2023.4.26.16.12.8.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | 8e6096c69f223b5ace1ad67755ce999ec4c6415cc61848973d6a91a23fc7fc22 |
|
MD5 | f08298354408c25353744ead3e94a2af |
|
BLAKE2b-256 | 3df87b65d68fdab361b0f304ad0dee3f598338227c37596817406fe4f0c0a9f1 |
Close
Hashes for ChatLLM-2023.4.26.16.12.8-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | d36b23d5d0f600b95a0e42b8743c4cd7ad9a7607ab2e64c6aaf8f4e38bdce271 |
|
MD5 | 3ac1c23a475aad4ee89a711ca4b60794 |
|
BLAKE2b-256 | ed9a36f4acddc06d546d40c44e37bad1910bad41120ad0a81ba65e8454ac342a |