Skip to main content

Dawn Shuttle - 基于推理的 LLM 记忆层

Project description

Superficial Thinking

基于推理的 LLM 记忆层 - 一个轻量级、高效的记忆管理系统。

概述

Superficial Thinking 是一个为 LLM 应用设计的记忆层,通过分层记忆架构和智能压缩,在保持上下文连贯性的同时大幅降低 API 调用成本。

核心特性

  • 分层记忆架构:工作记忆(精准)→ 模糊记忆(压缩)→ 持久化存储
  • 低成本设计:运行时零 LLM 调用,仅在批量压缩时调用
  • 关键词索引:支持部分匹配的快速检索
  • 异步优先:完全异步设计,支持高并发场景
  • 持久化存储:SQLite 后端,自动保存与恢复

架构

┌─────────────────────────────────────────────────────────┐
│                    初始化阶段                            │
│  加载持久化记忆 → 关键词索引构建                         │
└─────────────────────────────────────────────────────────┘
                           ↓
┌─────────────────────────────────────────────────────────┐
│                    运行时(无 LLM 调用)                 │
│  ┌──────────────┐    ┌──────────────┐                   │
│  │  工作记忆     │    │  模糊记忆     │                   │
│  │  (精准、近期) │    │  (压缩、关联) │                   │
│  │  直接添加     │    │  关键词索引   │                   │
│  └──────────────┘    └──────────────┘                   │
│         ↓ 达到上限触发批量压缩(1次 LLM)               │
└─────────────────────────────────────────────────────────┘
                           ↓
┌─────────────────────────────────────────────────────────┐
│              query_memory 工具(LLM 按需调用)          │
│  关键词检索 → LLM 汇总 → 流畅语段返回                   │
└─────────────────────────────────────────────────────────┘

安装

pip install dawn_shuttle_superficial_thinking

快速开始

import asyncio
from dawn_shuttle.dawn_shuttle_intelligence import OpenAICompatibleProvider
from dawn_shuttle.dawn_shuttle_superficial_thinking import MemoryManager, MemoryConfig

async def main():
    # 初始化 LLM 提供者
    provider = OpenAICompatibleProvider(
        api_key="your-api-key",
        base_url="https://api.example.com/v1"
    )
    
    # 创建记忆管理器
    config = MemoryConfig(
        db_path="memory.db",
        working_max_messages=20,  # 工作记忆容量
    )
    memory = MemoryManager(
        llm=provider,
        system_prompt="你是一个智能助手。",
        config=config,
        model="gpt-4"
    )
    
    # 初始化
    await memory.initialize()
    
    # 添加消息(无 LLM 调用)
    await memory.add_message("user", "我是张三,我喜欢 Python")
    await memory.add_message("assistant", "你好张三!")
    
    # 检索相关记忆(无 LLM 调用)
    result = await memory.retrieve("用户的编程偏好")
    for mem in result.fuzzy_memories:
        print(mem.summary)
    
    # 按需查询(有 LLM 调用,返回流畅语段)
    answer = await memory.query_memory("张三喜欢什么?")
    print(answer)
    
    # 获取上下文
    context = memory.get_context()
    
    # 关闭
    await memory.close()

asyncio.run(main())

LLM 调用优化

场景 传统方案 本方案
每条消息 1-2 次 0 次
检索 2 次 0 次
压缩 每次 1 条 批量 1 次
按需查询 - 1-2 次

配置说明

@dataclass
class MemoryConfig:
    # 工作记忆
    working_max_messages: int = 20      # 最大消息数量
    working_max_tokens: int = 4000      # 最大 token 数量
    
    # 模糊记忆
    fuzzy_max_nodes: int = 100          # 最大节点数
    fuzzy_decay_lambda: float = 0.01    # 权重衰减率
    
    # 检索
    retrieval_top_k: int = 10           # 返回记忆数量
    retrieval_candidates: int = 20      # 候选数量
    retrieval_threshold: float = 0.3    # 相关性阈值
    
    # 持久化
    db_path: str = "memory.db"          # 数据库路径
    auto_save: bool = True              # 自动保存
    save_interval: int = 10             # 保存间隔
    
    # 压缩
    compress_batch_size: int = 5        # 压缩批大小

API 参考

MemoryManager

主入口类,管理整个记忆系统。

方法

方法 说明 LLM 调用
initialize() 初始化记忆系统 0-1 次
add_message(role, content) 添加消息 0 次
retrieve(query) 检索相关记忆 0 次
query_memory(query) 按需查询(工具) 1-2 次
get_context() 获取对话上下文 0 次
get_stats() 获取统计信息 0 次
close() 关闭并保存 0 次

核心类型

# 精准记忆(工作记忆中的原始消息)
@dataclass
class PreciseMemory:
    role: Literal["user", "assistant", "system"]
    content: str
    timestamp: datetime
    importance: float
    metadata: dict[str, Any]

# 模糊记忆(压缩后的摘要)
@dataclass
class FuzzyMemory:
    id: str
    summary: str                    # 压缩摘要
    triples: list[Triple]           # 知识三元组
    keywords: Keywords              # 关键词
    weight: float                   # 权重(时间衰减)
    importance: float
    source_ids: list[str]           # 来源记忆ID

# 检索结果
@dataclass
class RetrievalResult:
    fuzzy_memories: list[FuzzyMemory]
    precise_memories: list[PreciseMemory]
    confidence: float
    reason: str

依赖

  • Python >= 3.10
  • dawn_shuttle_intelligence (LLM 接口)

开发

# 安装开发依赖
pip install -e ".[dev]"

# 运行测试
pytest

# 代码检查
ruff check .
mypy .

许可证

MIT License

贡献

欢迎提交 Issue 和 Pull Request!

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Source Distribution

dawn_shuttle_superficial_thinking-0.1.3.tar.gz (52.4 kB view details)

Uploaded Source

Built Distribution

If you're not sure about the file name format, learn more about wheel file names.

File details

Details for the file dawn_shuttle_superficial_thinking-0.1.3.tar.gz.

File metadata

File hashes

Hashes for dawn_shuttle_superficial_thinking-0.1.3.tar.gz
Algorithm Hash digest
SHA256 78347e36f5eb514283317c39ce12957e28c4b1d02c6ebac3427bb9baee0c35ee
MD5 74b5f6238374acb7aea7b5125c29359e
BLAKE2b-256 86312f03663af198b9290c3749cee7fdd25cd1f7806e5526fc02415e8d6a760b

See more details on using hashes here.

Provenance

The following attestation bundles were made for dawn_shuttle_superficial_thinking-0.1.3.tar.gz:

Publisher: publish.yml on dawn-shuttle/superficial-thinking

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

File details

Details for the file dawn_shuttle_superficial_thinking-0.1.3-py3-none-any.whl.

File metadata

File hashes

Hashes for dawn_shuttle_superficial_thinking-0.1.3-py3-none-any.whl
Algorithm Hash digest
SHA256 13f7e5950ec3b2a26cd903448926ccf0cb4e8c750673a680cc0693d91a962bcf
MD5 935921b044cd7fd99e3660e9169ff782
BLAKE2b-256 8f63a7086576198b431688c91fd08cf32e8531900a672463fdab2c2361e3fcc0

See more details on using hashes here.

Provenance

The following attestation bundles were made for dawn_shuttle_superficial_thinking-0.1.3-py3-none-any.whl:

Publisher: publish.yml on dawn-shuttle/superficial-thinking

Attestations: Values shown here reflect the state when the release was signed and may no longer be current.

Supported by

AWS Cloud computing and Security Sponsor Datadog Monitoring Depot Continuous Integration Fastly CDN Google Download Analytics Pingdom Monitoring Sentry Error logging StatusPage Status page