将阿里云灵积模型(通义千问等)集成到LangChain
Project description
langchain_dashscope
提供阿里云灵积模型的langchain集成。
对话大模型可用的模型名称
模型名 | 模型简介 | 模型输入输出限制 |
---|---|---|
qwen-turbo | 通义千问超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-plus | 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。 | 模型支持32k tokens上下文,为了保证正常的使用和输出,API限定用户输入为30k tokens。 |
qwen-max | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级,如果希望使用稳定版本,请使用qwen-max-1201。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-1201 | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-longcontext | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持30k tokens上下文,为了保证正常的使用和输出,API限定用户输入为28k tokens。 |
qwen1.5-72b-chat | 通义千问1.5对外开源的72B规模参数量的经过人类指令对齐的chat模型。 | 支持32k tokens上下文,输入最大30k,输出最大2k tokens。 |
qwen1.5-14b-chat | 模型支持 8k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为6k Tokens。 | |
qwen1.5-7b-chat | ||
baichuan13b-chat-v1 | 由百川智能开发的一个开源的大规模预训练模型。 | |
baichuan2-7b-chat-v1 | ||
chatglm3-6b | ChatGLM3-6B-Base 具有在 10B 以下的预训练模型中最强的性能。 |
文本向量可用的模型名称
- text-embedding-v1
- text-embedding-v2
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Close
Hashes for langchain_dashscope-0.1.4.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | d4fcc7db5c4fddd5598819f50ec4f46191822d2431d632071130a83133ad10fe |
|
MD5 | 2d84be8a23e918c10361f137868a4118 |
|
BLAKE2b-256 | 1c18542f1442d304de87b236f299fea415edf1078df4194ba89bb680480102c7 |
Close
Hashes for langchain_dashscope-0.1.4-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 9b0f52bf1c219908cb392a709aca0bafae3bc8aa0ae2fe5e20d6107d9956ef3d |
|
MD5 | 72676ad2582ad95285af043df1eece25 |
|
BLAKE2b-256 | 592b2f35d8edf5d79e5a47db537741977e0ea671faae66df71a3903c45a44be2 |