Skip to main content

No project description provided

Project description

开始使用

环境配置完成后,启动步骤为先启动chatchat-server,然后启动chatchat-frontend。 chatchat可通过pypi安装一键启动,您也可以选择使用源码启动。(Tips:源码配置可以帮助我们更快的寻找bug,或者改进基础设施。我们不建议新手使用这个方式)

pypi安装一键启动

  • 安装chatchat
pip install langchain-chatchat -U

注意:chatchat请放在独立的虚拟环境中,比如conda,venv,virtualenv等

已知问题,不能跟xf一起安装,会让一些插件出bug,例如文件无法上传

工作空间配置

操作指令 chatchat-config

 
Usage: chatchat-config [OPTIONS] COMMAND [ARGS]...

  指令` chatchat-config` 工作空间配置

Options:
  --help  Show this message and exit.

Commands:
  basic   基础配置
  kb      知识库配置
  model   模型配置
  server  服务配置

模型服务配置

如果您已经有了一个openai endpoint的能力的地址,可以在configs._model_config.py文件中MODEL_PLATFORMS直接配置

  • platform_name 可以任意填写,不要重复即可
  • platform_type 以后可能根据平台类型做一些功能区分,与platform_name一致即可
  • 将框架部署的模型填写到对应列表即可。不同框架可以加载同名模型,项目会自动做负载均衡。

自定义平台加载

可以通过 model_providers 提供转换不同平台的接口为openai endpoint的能力

配置CHATCHAT_ROOT文件夹configs中的model_providers.yaml文件,即可完成自定义平台加载

 
vim model_providers.yaml

注意: 在您配置平台之前,请确认平台依赖完整,例如智谱平台,您需要安装智谱sdk pip install zhipuai

详细配置请参考README.md

初始化知识库

chatchat-kb -r

启动服务

chatchat -a

模型?

chatchat 0.3版本中,为保证平台、模型、及本地服务的兼容,在保证可扩展性的同时,
我们对模型的加载进行了重新设计. chatchat 0.3之后的版本,我们将分离模型加载和服务启动. 您可以使用提供了`openaiEndpoint`任何服务,
可以在`configs._model_config.py`文件中MODEL_PLATFORMS直接配置
 

部署手册?

移步这里 xinference环境配置手册

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

langchain_chatchat-0.3.0.20240616.tar.gz (23.0 MB view hashes)

Uploaded Source

Built Distribution

langchain_chatchat-0.3.0.20240616-py3-none-any.whl (23.2 MB view hashes)

Uploaded Python 3

Supported by

AWS AWS Cloud computing and Security Sponsor Datadog Datadog Monitoring Fastly Fastly CDN Google Google Download Analytics Microsoft Microsoft PSF Sponsor Pingdom Pingdom Monitoring Sentry Sentry Error logging StatusPage StatusPage Status page