将阿里云灵积模型(通义千问等)集成到LangChain
Project description
langchain_dashscope
提供阿里云灵积模型的langchain集成。
对话大模型可用的模型名称
模型名 | 模型简介 | 模型输入输出限制 |
---|---|---|
qwen-turbo | 通义千问超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-plus | 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。 | 模型支持32k tokens上下文,为了保证正常的使用和输出,API限定用户输入为30k tokens。 |
qwen-max | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级,如果希望使用稳定版本,请使用qwen-max-1201。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-1201 | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-longcontext | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持30k tokens上下文,为了保证正常的使用和输出,API限定用户输入为28k tokens。 |
qwen1.5-72b-chat | 通义千问1.5对外开源的72B规模参数量的经过人类指令对齐的chat模型。 | 支持32k tokens上下文,输入最大30k,输出最大2k tokens。 |
qwen1.5-14b-chat | 模型支持 8k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为6k Tokens。 | |
qwen1.5-7b-chat | ||
baichuan13b-chat-v1 | 由百川智能开发的一个开源的大规模预训练模型。 | |
baichuan2-7b-chat-v1 | ||
chatglm3-6b | ChatGLM3-6B-Base 具有在 10B 以下的预训练模型中最强的性能。 |
文本向量可用的模型名称
- text-embedding-v1
- text-embedding-v2
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Close
Hashes for langchain_dashscope-0.1.8.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | c46893f3aa7ff5995efbf5e228d84d7ce58bd471b0ebffa27232eb8ae46c7336 |
|
MD5 | 8937399d8405410a6ced87471a60577e |
|
BLAKE2b-256 | 1bb43df910534f7cc3741317566f8814e98444a219319e519861bd2c59a9f1af |
Close
Hashes for langchain_dashscope-0.1.8-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 855734232b51613a2b86bed6c20744e468aaf99efc471e1ae9d58d06e57334aa |
|
MD5 | 7ad81a1eeddb7d221c98a8d5daf72033 |
|
BLAKE2b-256 | 057231be31ec8c20308a92b0048dccdb930bfa3f4bf8dd85cae91369923e1f5d |