基于 **Python + asyncio** 的模块化 AI Agent 框架,支持多 Provider、动态路由、流式响应和工具确认机制。
Project description
MindBot
基于 Python + asyncio 的模块化 AI Agent 框架,支持多 Provider、动态路由、流式响应和工具确认机制。
📢 News
- 2026-04-28 🔄 Hailo NPU + 动态健康监控 — Hailo-10H 硬件直连推理、Provider 后台探测静默恢复
- 2026-04-23 🔐 权限审批系统 — 工具执行通用审批机制,白名单/按需确认
- 2026-04-22 ⚙️ 向量记忆配置 — Memory 向量检索与遗忘策略可配置
- 2026-04-21 📦 uv 包管理 — 迁移到 uv 管理依赖
- 2026-04-20 🧠 Memory 重构 — 四级向量记忆系统
- 2026-04-10 🚀 实时配置系统 — ConfigBus 事件总线
- 2026-04-09 🏗️ ACP 协议支持 — Agent Client Protocol 通道
- 2026-04-02 📊 Agent Benchmark — ToolCall-15 benchmark
Earlier news
- 2026-03-05 🔧 v0.3.0 — 多 Agent 编排、Skills 机制、会话 Journal
- 2026-02-27 🧠 记忆系统 — 短期/长期记忆,向量检索
- 2026-02-20 💬 多通道支持 — 飞书、Telegram、HTTP
- 2026-02-10 🎉 MindBot 发布 — 基于 Python + asyncio 的模块化 Agent 框架
特性
- 🪶 轻量高效 — 纯 Python + asyncio,五层架构设计
- 🧠 长期记忆 — Markdown 存储,向量检索,自动归档
- 🎯 智能路由 — 根据内容类型/复杂度/关键词自动选择模型
- 🔌 上下文窗口透传 — Provider 自动报告模型上下文容量,ContextManager 自动适配压缩阈值
- 🔄 动态健康监控 — 后台探测不活跃 Provider,静默恢复自动加回可用池
- 🔒 工具确认 — 多级安全确认机制(白名单、危险工具检测)
- 🛡️ 路径安全 — 文件工具路径策略 + Shell 执行边界控制
- 💬 多通道 — CLI、HTTP、飞书、Telegram
- 🔌 Skills 机制 —
SKILL.md技能包按需注入 prompt - ⚙️ 实时配置 — ConfigBus 热更新,授权实时生效
安装
git clone https://github.com/SyJarvis/mindbot.git
cd mindbot
# 使用 uv(推荐)
uv sync # 安装核心依赖
uv sync --extra dev # 安装开发依赖(测试等)
uv sync --extra feishu # 安装飞书通道依赖
# 或使用 pip
pip install -e .
pip install -e ".[dev]" # 开发依赖
快速开始
1. 配置 LLM
MindBot 支持五种 LLM 适配器:
| 适配器 | 说明 | 适用场景 |
|---|---|---|
ollama |
本地运行,无需 API Key | 开发测试、私有部署 |
openai |
OpenAI API 或兼容服务 | 云服务、生产环境 |
hailo |
Hailo NPU 硬件直连推理 | 树莓派 5 + Hailo-10H 边缘设备 |
llama_cpp |
llama.cpp 本地推理 | 低资源环境 |
transformers |
HuggingFace 模型 | 研究实验 |
Ollama(本地运行)
# 安装并启动 Ollama
ollama pull qwen3
# 配置 ~/.mindbot/settings.json
{
"providers": {
"local-ollama": {
"type": "ollama",
"endpoints": [{
"base_url": "http://localhost:11434",
"models": [{ "id": "qwen3", "role": "chat", "level": "medium" }]
}]
}
},
"agent": {
"model": "local-ollama/qwen3"
}
}
OpenAI / 兼容服务
# 设置 API Key
export OPENAI_API_KEY=your-api-key
# 配置 ~/.mindbot/settings.json
{
"providers": {
"openai": {
"type": "openai",
"endpoints": [{
"base_url": "https://api.openai.com/v1",
"api_key": "{env:OPENAI_API_KEY}",
"models": [{ "id": "gpt-4o", "role": "chat", "level": "high" }]
}]
}
},
"agent": {
"model": "openai/gpt-4o"
}
}
兼容服务(如 DeepSeek、Moonshot、GLM)只需修改 base_url:
{
"providers": {
"deepseek": {
"type": "openai",
"endpoints": [{
"base_url": "https://api.deepseek.com/v1",
"api_key": "{env:DEEPSEEK_API_KEY}",
"models": [{ "id": "deepseek-chat", "role": "chat", "level": "high" }]
}]
}
},
"agent": {
"model": "deepseek/deepseek-chat"
}
}
Hailo NPU(边缘设备)
适用于树莓派 5 + AI HAT+(Hailo-10H),直接通过 HailoRT SDK 在 NPU 上运行 LLM 推理,零网络开销。
{
"providers": {
"local-hailo": {
"type": "hailo",
"endpoints": [{
"base_url": "local",
"temperature": 0.7,
"models": [{ "id": "qwen3:1.7b", "role": "chat", "level": "low" }]
}]
}
},
"agent": {
"model": "local-hailo/qwen3:1.7b"
}
}
Hailo 适配器会自动从 HEF 模型中读取 KV cache 上下文容量,并透传给 ContextManager,无需手动配置
context.max_tokens。
动态健康监控
{
"routing": {
"health_probe": {
"enabled": true,
"probe_interval_seconds": 30
}
}
}
后台探测不活跃 Provider,恢复后自动加回可用池。
2. 初始化配置
mindbot generate-config
这会创建 ~/.mindbot/settings.json 和 ~/.mindbot/SYSTEM.md。
3. 开始对话
import asyncio
from mindbot import MindBot
async def main():
bot = MindBot()
response = await bot.chat("你好,请介绍一下自己", session_id="user123")
print(response.content)
asyncio.run(main())
CLI 命令
mindbot <command> [options]
Commands:
generate-config 初始化配置(别名: onboard)
serve 启动服务(多通道)
shell 进入交互式 shell
chat 发送单条消息
status 显示状态
config show 显示当前配置
config validate 验证配置
Options:
-c, --config <path> 配置文件路径
-v, --verbose 详细日志模式
交互式 Shell
mindbot shell
进入 Shell 后可使用 slash 命令:
| 命令 | 说明 |
|---|---|
/model |
列出所有可用模型 |
/model <name> |
切换到指定模型(如 /model local-ollama/qwen3) |
/config |
实时配置命令(授权、设置) |
/status |
显示当前状态和 Provider 健康状态 |
/help |
显示帮助 |
exit / quit / bye |
退出 Shell |
使用方向键浏览历史输入
多通道支持
启动服务
mindbot serve
根据配置中 enabled: true 的通道自动启动。
飞书机器人
1. 创建飞书应用
- 访问 飞书开放平台
- 创建新应用 → 启用 机器人 能力
- 权限配置:添加
im:message(发送消息)、im:message.p2p_msg:readonly(接收消息) - 事件订阅:添加
im.message.receive_v1,选择「使用长连接接收事件」 - 获取 App ID 和 App Secret
2. 配置
{
"channels": {
"feishu": {
"enabled": true,
"app_id": "cli_xxx",
"app_secret": "xxx",
"encrypt_key": "",
"verification_token": ""
}
}
}
长连接模式无需公网 IP,飞书通过 WebSocket 推送消息。
3. 启动
mindbot serve
Telegram
# 从 @BotFather 获取 Token
export TELEGRAM_BOT_TOKEN=your-token
# 配置
{
"channels": {
"telegram": {
"enabled": true,
"token": "{env:TELEGRAM_BOT_TOKEN}"
}
}
}
文档导航
| 主题 | 链接 |
|---|---|
| 快速开始 | docs/guide/quickstart.md |
| 配置参考 | docs/configuration/index.md |
| 架构文档 | docs/architecture/overview.md |
| 示例代码 | docs/guide/examples.md |
| CLI 命令 | docs/guide/cli-reference.md |
| Skills 机制 | docs/guide/skills.md |
| Benchmark | docs/testing/toolcall15.md |
项目结构
mindbot/
├── src/mindbot/
│ ├── bot.py # 对外主入口
│ ├── agent/ # Agent 编排与执行
│ ├── providers/ # LLM 提供商适配
│ ├── routing/ # 模型路由
│ ├── memory/ # 记忆系统
│ ├── capability/ # 能力层
│ ├── channels/ # 多通道支持
│ ├── config/ # 配置管理
│ └── tools/ # 内置工具
├── docs/ # 文档
├── tests/ # 测试
└── examples/ # 示例代码
架构设计
MindBot 采用 五层分层架构,各层之间通过明确的边界规则和单向依赖关系进行解耦。
┌─────────────────────────────────────────────────────────────┐
│ L1 接口/传输层 │
│ channels/* + bus/* + cli/* │
│ 接入外部通道(CLI、HTTP、飞书),通过 MessageBus 解耦 │
├─────────────────────────────────────────────────────────────┤
│ L2 应用/编排层 │
│ bot.py + agent/core.py + agent/agent.py + turn_engine.py │
│ 对话主链路编排:组装输入、驱动 TurnEngine 循环、持久化提交 │
├─────────────────────────────────────────────────────────────┤
│ L3 对话领域层 │
│ context/manager.py + context/models.py + compression.py │
│ 7 块上下文管理、消息模型、token 预算分配 │
├─────────────────────────────────────────────────────────────┤
│ L4 能力与记忆层 │
│ capability/* + memory/* + generation/* + skills/* │
│ 工具执行、记忆检索、动态工具生成、技能注册与渲染 │
├─────────────────────────────────────────────────────────────┤
│ L5 基础设施适配层 │
│ providers/* + routing/* + config/* │
│ LLM Provider 适配(OpenAI/Ollama/Hailo/Transformers)、 │
│ 模型路由选择、上下文窗口透传、配置加载与热更新 │
└─────────────────────────────────────────────────────────────┘
| 层级 | 核心职责 | 关键模块 |
|---|---|---|
| L1 | 接入外部通道,消息解耦 | channels/*, bus/*, cli/* |
| L2 | 对话主链路编排 | bot.py, agent/core.py, agent/turn_engine.py |
| L3 | 上下文管理、token 预算 | context/manager.py, context/models.py |
| L4 | 工具执行、记忆检索 | capability/*, memory/*, skills/* |
| L5 | LLM Provider、模型路由、上下文窗口透传 | providers/*, routing/*, config/* |
核心设计原则
- 仅两个聊天接口:
chat()和chat_stream(),所有通道必须通过这两个方法进入主链路 - 全异步架构:所有 I/O 操作均为
async,不阻塞事件循环 - 7 块上下文管理:system_identity、skills_overview、skills_detail、memory、conversation、intent_state、user_input
- CapabilityFacade 统一调度:所有工具执行通过统一入口
内置工具
| 工具 | 类别 | 说明 |
|---|---|---|
read_file |
文件 | 读取文件内容,支持 offset/limit 分页 |
write_file |
文件 | 创建或覆盖文件,自动创建父目录 |
edit_file |
文件 | 精确文本替换,支持 replace_all |
list_directory |
文件 | 列出目录内容,支持 glob 模式匹配 |
file_info |
文件 | 获取文件/目录基本信息(大小、类型) |
exec_command |
Shell | 执行 Shell 命令,带超时和安全检查 |
get_mindbot_runtime_info |
系统 | 获取运行时状态(配置、内存、日志) |
fetch_url |
Web | 获取 URL 内容,自动去除 HTML 标签 |
路径安全策略
- workspace: 默认工作目录,所有相对路径以此解析
- restrict_to_workspace: 启用时,文件工具只能在允许根目录内运行
- system_path_whitelist: 额外允许的系统路径(如
~/.mindbot) - shell_execution.policy: Shell 执行策略(
cwd_guard或sandboxed)
License
MIT
Project details
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
Built Distribution
Filter files by name, interpreter, ABI, and platform.
If you're not sure about the file name format, learn more about wheel file names.
Copy a direct link to the current filters
File details
Details for the file mindbot-0.3.5.tar.gz.
File metadata
- Download URL: mindbot-0.3.5.tar.gz
- Upload date:
- Size: 238.9 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: poetry/2.3.0 CPython/3.13.11 Darwin/25.2.0
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
00d6e7b5db399ae7cda7a183451f7cfae270982605c3487ec35215ce9132bed8
|
|
| MD5 |
b1b492a6280db29f17441793f252bdd9
|
|
| BLAKE2b-256 |
c487e748b96ca383c731b9839eca34291c71fca17312059c20738b8796300ce0
|
File details
Details for the file mindbot-0.3.5-py3-none-any.whl.
File metadata
- Download URL: mindbot-0.3.5-py3-none-any.whl
- Upload date:
- Size: 321.9 kB
- Tags: Python 3
- Uploaded using Trusted Publishing? No
- Uploaded via: poetry/2.3.0 CPython/3.13.11 Darwin/25.2.0
File hashes
| Algorithm | Hash digest | |
|---|---|---|
| SHA256 |
52ebac5fa37f9e2fb686349a7c041e8120530440df49e69d3bc592b0d2b1ba92
|
|
| MD5 |
551c910fde292577f196ae043ef7e6ab
|
|
| BLAKE2b-256 |
ec3948a17b1061dc2ef20071cb0283360db9afb279fbd5ef3729a54ec605b0cf
|