A package that integrates the APIs of multiple major language model manufacturers.
Project description
<<<<<<< HEAD
OneLLM使用手册
1.1项目整体介绍:
OneLLM是集成大模型会话API接口工具,目前支持智谱清言、通义千问、火山方舟、讯飞星火、百度千帆、月之暗面的大模型会话服务。旨在简化用户请求过程,提高开发效率。
1.2项目安装及使用方法:
1.2.1安装方法:
通过pip进行安装:
pip install OneLLM
1.2.2使用方法(以智谱清言为例):
导入包
import OneLLM
实例化模型
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
zhipu=OneLLM.Zhipu(api_key,model) #实例化模型
发送请求
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
调试模式发送请求
msg=input("请输入:")
content=Doubao.send_debug(msg)
print(content)
多重对话
while True:
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
1.3主要方法:
1.3.1 send(msg)
普通模式发送请求,返回模型的回复。
1.3.2 send_debug(msg)
调试模式发送请求,返回模型的回复和模型的原始输出。
1.3.3 set_model(model)
设置模型,默认为glm-4。
1.3.4 get_model()
获取当前模型。
1.3.5 set_api_key(api_key)
设置API Key。
1.3.6 get_api_key()
获取当前API Key。
1.3.7 getRequestId()
获取当前请求的ID。
除此之外,对于实例化模型需要初始化传入的参数均可调用get/set方法进行使用。
2.1示例模型的调用方法:
火山方舟大模型:
模型/应用调用API鉴权
API Key 签名鉴权
前提条件
获取API Key:
1.打开并登录方舟控制台-API Key 管理。
2.单击创建 API Key 按钮。
3.在弹出框的名称文本框中确认/更改 API Key 名称,单击创建。
获取 Model ID 作为推理接入点 用于模型调用:(此方式目前仅支持 API Key 鉴权)
您可以在模型卡片页面获取模型 Model ID,格式为“模型名称-版本号”。
目前除“视频生成”以外的模型均可通过此方式调用,调用之前请确认模型已开通(参见开通管理)。
签名构造
API Key 签名鉴权方式要求在 HTTP 请求 header 中按如下方式添加 Authorization header:
Authorization: Bearer <ARK_API_KEY>
API 调用示例
curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <ARK_API_KEY>" \
-d '{
"model": "<Model ID>",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}'
火山方舟调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Doubao=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Doubao.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
参考文档:https://www.volcengine.com/docs/82379/1298459
讯飞星火大模型:
创建新的应用
1.访问讯飞官网,进入开发者中心:
在页面顶部导航栏中找到“开发者中心”或者“我的应用”。
点击进入,查看你的应用列表(如果之前创建过应用)。
2.填写应用基本信息,包括:
- 应用名称:为你的应用选择一个唯一且简洁的名称。
- 应用类型:根据模型的使用场景选择相应的应用类型(如:文本处理、语音识别等)。
- 应用描述:简要描述应用的功能和目标。
完成填写后,点击“提交”按钮。 创建成功后,你将看到新创建的应用出现在应用列表中。
3.获取API Key
应用创建成功后,你需要获取API Key以方便后续的调用:
在应用列表中找到你刚创建的应用, 点击该应用进入应用详情页面,找到左侧详情页找到“可定制化API”
生成最终URL
将鉴权参数组合成最终的键值对,并urlencode生成最终的握手url。开发者可先根据WebSocket协议通用鉴权,确保生成的参数无误。
from urllib.parse import urlencode
v = {
"authorization": authorization, # 上方鉴权生成的authorization
"date": date, # 步骤1生成的date
"host": "spark-api.xf-yun.com" # 请求的主机名,根据具体接口替换
}
url = "wss://spark-api.xf-yun.com/v1.1/chat?" + urlencode(v)
"""生成的最终url如下
wss://spark-api.xf-yun.com/v1.1/chat?authorization=YXBpX2tleT0iYWRkZDIyNzJiNmQ4YjdjOGFiZGQ3OTUzMTQyMGNhM2IiLCBhbGdvcml0aG09ImhtYWMtc2hhMjU2IiwgaGVhZGVycz0iaG9zdCBkYXRlIHJlcXVlc3QtbGluZSIsIHNpZ25hdHVyZT0iejVnSGR1M3B4VlY0QURNeWs0Njd3T1dEUTlxNkJRelIzbmZNVGpjL0RhUT0i&date=Fri%2C+05+May+2023+10%3A43%3A39+GMT&host=spark-api.xf-yun.com
"""
讯飞星火调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Spark=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Spark.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Spark.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Spark.send(msg)
print(content)
参考文档:https://www.xfyun.cn/doc/spark/general_url_authentication.html
智谱清言大模型:
获取您的API Key:
登录到智谱AI开放平台API Keys 页面 获取最新版生成的用户 API Key
新版机制中平台颁发的 API Key 同时包含 “用户标识 id” 和 “签名密钥 secret”,即格式为 {id}.{secret}
使用 API Key 进行请求
用户需要将 API Key 放入 HTTP 的 Authorization header 头中。
curl --location 'https://open.bigmodel.cn/api/paas/v4/chat/completions' \
--header 'Authorization: Bearer <你的apikey>' \
--header 'Content-Type: application/json' \
--data '{
"model": "glm-4",
"messages": [
{
"role": "user",
"content": "你好"
}
]
}'
鉴权 token 组装过程
import time
import jwt
def generate_token(apikey: str, exp_seconds: int):
try:
id, secret = apikey.split(".")
except Exception as e:
raise Exception("invalid apikey", e)
payload = {
"api_key": id,
"exp": int(round(time.time() * 1000)) + exp_seconds * 1000,
"timestamp": int(round(time.time() * 1000)),
}
return jwt.encode(
payload,
secret,
algorithm="HS256",
headers={"alg": "HS256", "sign_type": "SIGN"},
)
用户需要将生成的鉴权 token 放入 HTTP 的 Authorization header 头中:
Authorization: 鉴权token
Curl请求中的token参数示例
curl --location 'https://open.bigmodel.cn/api/paas/v4/chat/completions' \
--header 'Authorization: Bearer <你的token>' \
--header 'Content-Type: application/json' \
--data '{
"model": "glm-4",
"messages": [
{
"role": "user",
"content": "你好"
}
]
}'
智谱清言调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
zhipu=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=zhipu.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=zhipu.send_debug(msg)
print(content)
#连续对话
while True:
msg=input("请输入:")
content=zhipu.send(msg)
print(content)
参考文档:https://bigmodel.cn/dev/api/http-call/http-auth
百度千帆大模型:
创建API Key
1.子用户登录百度云控制台后,访问API Key管理控制台
2.点击创建API Key
3.按需配置百度智能云千帆ModelBuilder、百度智能云千帆AppBuilder、 AI开放能力的相关权限
查看API Key
1.在API key列表页,点击显示,经过二次身份验证后,可以查看API Key明文
获取AKSK
成功登录管理控制台后,系统会自动分配一对AK/SK,可通过控制台申请并管理自己的访问密钥,操作方法如下:
1.登录管理控制台,点击“用户账号->安全认证”进入Access Key管理界面。
2.点击Access Key ID右侧的“显示”,可查看其对应的Secret Access Key,点击“隐藏”可隐藏对应的Secret Access Key。
3.在密钥列表页中,根据需要可点击“创建Access Key”来创建新的Access Key ID / Secret Access Key密钥对。
签名API请求
在请求签名之前,请先计算请求的哈希(摘要)。然后,您使用哈希值、来自请求的其他信息以及您的秘密访问密钥(Secret Access Key,SK),计算另一个称为签名(Signature) 的哈希, 得到签名后,进行一定规则的拼装成最终的认证字符串,也就是最终您需要包含在API请求中的Authorization字段。
您可以通过以下方式携带认证字符串:
- 在HTTP Header中包含认证字符串
- 在URL中包含认证字符串
用户也可以将认证字符串放在HTTP请求Query String的authorization参数中。常用于生成URL给第三方使用的场景,例如要临时把某个数据开放给他人下载。
百度千帆调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Ernie=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Ernie.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Ernie.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Ernie.send(msg)
print(content)
参考文档:https://cloud.baidu.com/doc/Reference/s/1m5qi1m4y
Kimi大模型:
获取API Key
你需要一个 API 密钥来使用我们的服务。你可以在我们的控制台中创建一个 API 密钥
发送请求
你可以使用我们的 Chat Completions API 来发送请求。你需要提供一个 API 密钥和一个模型名称。你可以选择是否使用默认的 max_tokens 参数,或者自定义 max_tokens 参数。可以参考 API 文档中的调用方法。
公开的服务地址
https://api.moonshot.cn
Moonshot调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Moonshot=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Moonshot.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Moonshot.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Moonshot.send(msg)
print(content)
参考文档:https://platform.moonshot.cn/docs/intro#%E8%8E%B7%E5%8F%96-api-%E5%AF%86%E9%92%A5
1.3大模型参照列表:
火山方舟大模型:
- Doubao-pro-4k
- Doubao-pro-32k
- Doubao-pro-128k
讯飞星火大模型:
- Spark4.0 Ultra
- Spark Max-32K
- Spark Max
- Spark Pro-128K
- Spark Pro
- Spark Lite
智谱清言大模型:
- glm-4-plus
- glm-4-air
- glm-4-air-0111
- Preview
- glm-4-airx
- glm-4-long
- glm-4-flashx
- glm-4-flash
- glm-4v-plus-0111
- glm-4v-plus
- glm-4v
- glm-4v-flash
- glm-zero-preview
Kimi大模型:
- moonshot-v1-8k
- moonshot-v1-32k
- moonshot-v1-128k
- moonshot-v1-8k-vision-preview
- moonshot-v1-32k-vision-preview
- moonshot-v1-128k-vision-preview
百度千帆大模型:
- ERNIE 4.0
- ERNIE 4.0 Turbo
- ERNIE 3.5
- ERNIE Speed Pro =======
OneLLM使用手册
1.1项目整体介绍:
OneLLM是集成大模型会话API接口工具,目前支持智谱清言、通义千问、火山方舟、讯飞星火、百度千帆、月之暗面的大模型会话服务。旨在简化用户请求过程,提高开发效率。
1.2项目安装及使用方法:
1.2.1安装方法:
通过pip进行安装:
pip install OneLLM
1.2.2使用方法(以智谱清言为例):
导入包
import OneLLM
实例化模型
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
zhipu=OneLLM.Zhipu(api_key,model) #实例化模型
发送请求
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
调试模式发送请求
msg=input("请输入:")
content=Doubao.send_debug(msg)
print(content)
多重对话
while True:
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
1.3主要方法:
1.3.1 send(msg)
普通模式发送请求,返回模型的回复。
1.3.2 send_debug(msg)
调试模式发送请求,返回模型的回复和模型的原始输出。
1.3.3 set_model(model)
设置模型,默认为glm-4。
1.3.4 get_model()
获取当前模型。
1.3.5 set_api_key(api_key)
设置API Key。
1.3.6 get_api_key()
获取当前API Key。
1.3.7 getRequestId()
获取当前请求的ID。
除此之外,对于实例化模型需要初始化传入的参数均可调用get/set方法进行使用。
1.4示例模型的调用方法:
阿里千问大模型:
开通百炼的模型服务
登录阿里云百炼大模型服务平台后,如果页面顶部显示如下消息,您需要开通百炼的模型服务,以获得免费额度。开通百炼不会产生费用,仅调用、部署、调优模型会产生相应费用(超出免费额度后)。
获取API Key
1.前往API-KEY页面,单击创建我的API-KEY。
2.在已创建的API Key操作列,单击查看,获取API KEY。
3.获得API Key后,建议您将其配置到环境变量中,以便在调用模型或应用时使用。这样可以避免在代码中显式地配置API Key,从而降低API Key泄漏的风险。在环境变量中配置API Key的具体操作,请参见配置API Key到环境变量。
千问调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Qwen=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Qwen.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Qwen.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Qwen.send(msg)
print(content)
火山方舟大模型:
模型/应用调用API鉴权
API Key 签名鉴权
前提条件
获取API Key:
1.打开并登录方舟控制台-API Key 管理。
2.单击创建 API Key 按钮。
3.在弹出框的名称文本框中确认/更改 API Key 名称,单击创建。
获取 Model ID 作为推理接入点 用于模型调用:(此方式目前仅支持 API Key 鉴权)
您可以在模型卡片页面获取模型 Model ID,格式为“模型名称-版本号”。
目前除“视频生成”以外的模型均可通过此方式调用,调用之前请确认模型已开通(参见开通管理)。
签名构造
API Key 签名鉴权方式要求在 HTTP 请求 header 中按如下方式添加 Authorization header:
Authorization: Bearer <ARK_API_KEY>
API 调用示例
curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <ARK_API_KEY>" \
-d '{
"model": "<Model ID>",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}'
火山方舟调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Doubao=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Doubao.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Doubao.send(msg)
print(content)
参考文档:https://www.volcengine.com/docs/82379/1298459
讯飞星火大模型:
创建新的应用
1.访问讯飞官网,进入开发者中心:
在页面顶部导航栏中找到“开发者中心”或者“我的应用”。
点击进入,查看你的应用列表(如果之前创建过应用)。
2.填写应用基本信息,包括:
- 应用名称:为你的应用选择一个唯一且简洁的名称。
- 应用类型:根据模型的使用场景选择相应的应用类型(如:文本处理、语音识别等)。
- 应用描述:简要描述应用的功能和目标。
完成填写后,点击“提交”按钮。 创建成功后,你将看到新创建的应用出现在应用列表中。
3.获取API Key
应用创建成功后,你需要获取API Key以方便后续的调用:
在应用列表中找到你刚创建的应用, 点击该应用进入应用详情页面,找到左侧详情页找到“可定制化API”
生成最终URL
将鉴权参数组合成最终的键值对,并urlencode生成最终的握手url。开发者可先根据WebSocket协议通用鉴权,确保生成的参数无误。
from urllib.parse import urlencode
v = {
"authorization": authorization, # 上方鉴权生成的authorization
"date": date, # 步骤1生成的date
"host": "spark-api.xf-yun.com" # 请求的主机名,根据具体接口替换
}
url = "wss://spark-api.xf-yun.com/v1.1/chat?" + urlencode(v)
"""生成的最终url如下
wss://spark-api.xf-yun.com/v1.1/chat?authorization=YXBpX2tleT0iYWRkZDIyNzJiNmQ4YjdjOGFiZGQ3OTUzMTQyMGNhM2IiLCBhbGdvcml0aG09ImhtYWMtc2hhMjU2IiwgaGVhZGVycz0iaG9zdCBkYXRlIHJlcXVlc3QtbGluZSIsIHNpZ25hdHVyZT0iejVnSGR1M3B4VlY0QURNeWs0Njd3T1dEUTlxNkJRelIzbmZNVGpjL0RhUT0i&date=Fri%2C+05+May+2023+10%3A43%3A39+GMT&host=spark-api.xf-yun.com
"""
讯飞星火调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Spark=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Spark.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Spark.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Spark.send(msg)
print(content)
参考文档:https://www.xfyun.cn/doc/spark/general_url_authentication.html
智谱清言大模型:
获取您的API Key:
登录到智谱AI开放平台API Keys 页面 获取最新版生成的用户 API Key
新版机制中平台颁发的 API Key 同时包含 “用户标识 id” 和 “签名密钥 secret”,即格式为 {id}.{secret}
使用 API Key 进行请求
用户需要将 API Key 放入 HTTP 的 Authorization header 头中。
curl --location 'https://open.bigmodel.cn/api/paas/v4/chat/completions' \
--header 'Authorization: Bearer <你的apikey>' \
--header 'Content-Type: application/json' \
--data '{
"model": "glm-4",
"messages": [
{
"role": "user",
"content": "你好"
}
]
}'
鉴权 token 组装过程
import time
import jwt
def generate_token(apikey: str, exp_seconds: int):
try:
id, secret = apikey.split(".")
except Exception as e:
raise Exception("invalid apikey", e)
payload = {
"api_key": id,
"exp": int(round(time.time() * 1000)) + exp_seconds * 1000,
"timestamp": int(round(time.time() * 1000)),
}
return jwt.encode(
payload,
secret,
algorithm="HS256",
headers={"alg": "HS256", "sign_type": "SIGN"},
)
用户需要将生成的鉴权 token 放入 HTTP 的 Authorization header 头中:
Authorization: 鉴权token
Curl请求中的token参数示例
curl --location 'https://open.bigmodel.cn/api/paas/v4/chat/completions' \
--header 'Authorization: Bearer <你的token>' \
--header 'Content-Type: application/json' \
--data '{
"model": "glm-4",
"messages": [
{
"role": "user",
"content": "你好"
}
]
}'
智谱清言调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
zhipu=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=zhipu.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=zhipu.send_debug(msg)
print(content)
#连续对话
while True:
msg=input("请输入:")
content=zhipu.send(msg)
print(content)
参考文档:https://bigmodel.cn/dev/api/http-call/http-auth
百度千帆大模型:
创建API Key
1.子用户登录百度云控制台后,访问API Key管理控制台
2.点击创建API Key
3.按需配置百度智能云千帆ModelBuilder、百度智能云千帆AppBuilder、 AI开放能力的相关权限
查看API Key
1.在API key列表页,点击显示,经过二次身份验证后,可以查看API Key明文
获取AKSK
成功登录管理控制台后,系统会自动分配一对AK/SK,可通过控制台申请并管理自己的访问密钥,操作方法如下:
1.登录管理控制台,点击“用户账号->安全认证”进入Access Key管理界面。
2.点击Access Key ID右侧的“显示”,可查看其对应的Secret Access Key,点击“隐藏”可隐藏对应的Secret Access Key。
3.在密钥列表页中,根据需要可点击“创建Access Key”来创建新的Access Key ID / Secret Access Key密钥对。
签名API请求
在请求签名之前,请先计算请求的哈希(摘要)。然后,您使用哈希值、来自请求的其他信息以及您的秘密访问密钥(Secret Access Key,SK),计算另一个称为签名(Signature) 的哈希, 得到签名后,进行一定规则的拼装成最终的认证字符串,也就是最终您需要包含在API请求中的Authorization字段。
您可以通过以下方式携带认证字符串:
- 在HTTP Header中包含认证字符串
- 在URL中包含认证字符串
用户也可以将认证字符串放在HTTP请求Query String的authorization参数中。常用于生成URL给第三方使用的场景,例如要临时把某个数据开放给他人下载。
百度千帆调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Ernie=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Ernie.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Ernie.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Ernie.send(msg)
print(content)
参考文档:https://cloud.baidu.com/doc/Reference/s/1m5qi1m4y
Kimi大模型:
获取API Key
你需要一个 API 密钥来使用我们的服务。你可以在我们的控制台中创建一个 API 密钥
发送请求
你可以使用我们的 Chat Completions API 来发送请求。你需要提供一个 API 密钥和一个模型名称。你可以选择是否使用默认的 max_tokens 参数,或者自定义 max_tokens 参数。可以参考 API 文档中的调用方法。
公开的服务地址
https://api.moonshot.cn
Moonshot调用示例
#导入包
import OneLLM
model="glm-4" #选择模型
api_key=" your api key " #填入你的API Key
Moonshot=OneLLM.Zhipu(api_key,model) #实例化模型
#普通模式发送会话
msg=input("请输入:")
content=Moonshot.send(msg)
print(content)
#调试模式发送会话
msg=input("请输入:")
content=Moonshot.send_debug(msg)
print(content)
#多重对话
while True:
msg=input("请输入:")
content=Moonshot.send(msg)
print(content)
参考文档:https://platform.moonshot.cn/docs/intro#%E8%8E%B7%E5%8F%96-api-%E5%AF%86%E9%92%A5
1.5大模型参照列表:
阿里千问大模型:
- qwen-max
- qwen-plus
- qwen-turbo
- qwen-long
火山方舟大模型:
- Doubao-pro-4k
- Doubao-pro-32k
- Doubao-pro-128k
讯飞星火大模型:
- Spark4.0 Ultra
- Spark Max-32K
- Spark Max
- Spark Pro-128K
- Spark Pro
- Spark Lite
智谱清言大模型:
- glm-4-plus
- glm-4-air
- glm-4-air-0111
- Preview
- glm-4-airx
- glm-4-long
- glm-4-flashx
- glm-4-flash
- glm-4v-plus-0111
- glm-4v-plus
- glm-4v
- glm-4v-flash
- glm-zero-preview
Kimi大模型:
- moonshot-v1-8k
- moonshot-v1-32k
- moonshot-v1-128k
- moonshot-v1-8k-vision-preview
- moonshot-v1-32k-vision-preview
- moonshot-v1-128k-vision-preview
百度千帆大模型:
- ERNIE 4.0
- ERNIE 4.0 Turbo
- ERNIE 3.5
- ERNIE Speed Pro
e6068a1a1599727c76be7b5e8f21684f06786bf2
- ERNIE Lite Pro
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Filter files by name, interpreter, ABI, and platform.
If you're not sure about the file name format, learn more about wheel file names.
Copy a direct link to the current filters
File details
Details for the file onellmapi-1.0.tar.gz.
File metadata
- Download URL: onellmapi-1.0.tar.gz
- Upload date:
- Size: 18.2 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.1.0 CPython/3.12.4
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
f412f30054d61f5ccb33c0861126c80041fc7c7f420532f157e675f8810b7039
|
|
| MD5 |
e5e2c049a2b55fda0ebd44b7525a49a8
|
|
| BLAKE2b-256 |
cbb752dd4bc9fea25b5aa0ac58ec56dadf6664e9e6b7617ff3d41d302657b180
|
File details
Details for the file onellmapi-1.0-py3-none-any.whl.
File metadata
- Download URL: onellmapi-1.0-py3-none-any.whl
- Upload date:
- Size: 22.9 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/6.1.0 CPython/3.12.4
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
957534be0040ee69ca31b147359b8bbae0d0c95cb70d595a11aaa01f409e2212
|
|
| MD5 |
315f7768a6750eba2c36aeecf7136e76
|
|
| BLAKE2b-256 |
11596b9e9b26ac9e5edab75174c7d5d0803b3aed17299c80f5e3e1aec83db8d8
|