将阿里云灵积模型(通义千问等)集成到LangChain
Project description
langchain_dashscope
提供阿里云灵积模型的langchain集成。
对话大模型可用的模型名称
模型名 | 模型简介 | 模型输入输出限制 |
---|---|---|
qwen-turbo | 通义千问超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-plus | 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。 | 模型支持32k tokens上下文,为了保证正常的使用和输出,API限定用户输入为30k tokens。 |
qwen-max | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级,如果希望使用稳定版本,请使用qwen-max-1201。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-1201 | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。 | 模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens。 |
qwen-max-longcontext | 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。 | 模型支持30k tokens上下文,为了保证正常的使用和输出,API限定用户输入为28k tokens。 |
qwen1.5-72b-chat | 通义千问1.5对外开源的72B规模参数量的经过人类指令对齐的chat模型。 | 支持32k tokens上下文,输入最大30k,输出最大2k tokens。 |
qwen1.5-14b-chat | 模型支持 8k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为6k Tokens。 | |
qwen1.5-7b-chat | ||
baichuan13b-chat-v1 | 由百川智能开发的一个开源的大规模预训练模型。 | |
baichuan2-7b-chat-v1 | ||
chatglm3-6b | ChatGLM3-6B-Base 具有在 10B 以下的预训练模型中最强的性能。 |
文本向量可用的模型名称
- text-embedding-v1
- text-embedding-v2
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Close
Hashes for langchain_dashscope-0.1.6.tar.gz
Algorithm | Hash digest | |
---|---|---|
SHA256 | 9236210d03da74a0ca36000fb25fa7c74c9f173b342260147deed5cafa670fac |
|
MD5 | 59c489c129b8d6abb95bd30670eaaef6 |
|
BLAKE2b-256 | e27eeb60d1ae63a413fb75b11c604c9be08af1e0133d8f89b3bb351b6631e665 |
Close
Hashes for langchain_dashscope-0.1.6-py3-none-any.whl
Algorithm | Hash digest | |
---|---|---|
SHA256 | 7d34d218a74f6726b11e56267ef999d0c378ed5149cd7416410e6563a20bd366 |
|
MD5 | 3e64c061625986965ff4432ba31d5eb0 |
|
BLAKE2b-256 | 25c137910a320aafd7306f0b5af8841b8d483890696076921b9f7e42355d6085 |