Create a Python package.
Project description
🔥ChatLLM 基于知识库🔥
Install
pip install -U chatllm
Docs
Usages
from chatllm.applications import ChatBase
qa = ChatBase()
qa.load_llm4chat(model_name_or_path="THUDM/chatglm-6b")
for i, _ in qa(query='周杰伦是谁', knowledge_base='周杰伦是傻子'):
pass
# 根据已知信息无法回答该问题,因为周杰伦是中国内地流行歌手、演员、音乐制作人、导演,
# 是具有一定的知名度和专业能力的人物,没有提供足够的信息无法判断他是傻子。
Click to ChatPDF
from chatllm.applications.chatpdf import ChatPDF
qa = ChatPDF(encode_model='nghuyong/ernie-3.0-nano-zh')
qa.load_llm4chat(model_name_or_path="THUDM/chatglm-6b")
for i, _ in qa(query='东北证券主营业务'):
pass
# 根据已知信息,东北证券的主营业务为证券业务。公司作为证券公司,主要从事证券经纪、证券投资咨询、与证券交易、
# 证券投资活动有关的财务顾问、证券承销与保荐、证券自营、融资融券、证券投资基金代销和代销金融产品待业务。
Click to 开发部署
-
ChatGLM-6B 模型硬件需求
量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调) FP16(无量化) 13 GB 14 GB INT8 8 GB 9 GB INT4 6 GB 7 GB -
Embedding 模型硬件需求
本项目中默认选用的 Embedding 模型 GanymedeNil/text2vec-large-chinese 约占用显存 3GB,也可修改为在 CPU 中运行。
开发部署
软件需求
本项目已在 Python 3.8 - 3.10,CUDA 11.7 环境下完成测试。已在 Windows、ARM 架构的 macOS、Linux 系统中完成测试。
从本地加载模型
1. 安装环境
参见 安装指南。
Click to TODO
-
增加UI
-
增加ChatPDF
-
增加本地知识库组件
-
增加互联网搜索组件
-
增加知识图谱组件
-
增加微调模块
-
增加流式输出
-
增加http接口
-
增加grpc接口
======= History
0.0.0 (2023-04-11)
- First release on PyPI.
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Close
Hashes for ChatLLM-2023.4.26.15.9.28.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | 03269274c8e03a20c4c0a2cd562b25f3c41599517b740de4b1794a95825ae7a7 |
|
MD5 | 7964f2bf8e0f05086deca05e2ac5ec1b |
|
BLAKE2b-256 | acd93cb97c190f321adac251119ed6aaaf6a70c27ea0ab5d30ef85765694948b |
Close
Hashes for ChatLLM-2023.4.26.15.9.28-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 1b8ad967b1e678065402d51daa958614145030c4dddb8ce6c6158b94b883a7b1 |
|
MD5 | ed109e568bc1a2fcc1c72994cea8b438 |
|
BLAKE2b-256 | 3feebd07a95a28d72a8798d03b56984b82f659997b33e50e229c02340f395404 |