Local-DeepThink

慢节奏多智能体协作的思考系统

psychology 项目简介

当下主流 AI 模型的范式是中心化的超大规模服务,提个问题,它立刻给你答案,看起来很聪明,但真要让它推理几轮、反思自己、改进策略,它就会变得肤浅、幻觉频出。

local-deepthink 提出了一种完全不同的范式:它主张把 AI 之间互相协作,用慢思考来换取思维涌现和认知深度,还有个智力民主(作者认为在本地运行其他人的模型可以达到民主)。

这个系统里有一个自创的框架叫QNN(Qualitative Neural Network),你可以把它理解成一种人工智能社会,里面每个小 Agent 是一个神经元,大家分工合作、互相批判、共同进化。

开发者、AI系统和用户之间的思维交流
speed 慢思考代替快速响应
groups 多智能体协作
public 本地部署运行
psychology_alt 思维涌现与认知深度
QNN(Qualitative Neural Network)架构

QNN(Qualitative Neural Network)架构

hub 人工智能社会的核心框架

QNN(Qualitative Neural Network)是 local-deepthink 项目的核心框架,可以理解为一种"人工智能社会"。在这个框架中,每个小 Agent 是一个神经元,大家分工合作、互相批判、共同进化。

与简单的 Agent 系统不同,QNN 通过不断提高标准来学习,形成一个复杂的多智能体系统。这种架构使得系统能够处理复杂问题,通过分解问题、分配任务、协作求解,最终形成高质量的解决方案。

多智能体系统架构图
group_work

分工合作

每个智能体专注于特定领域,像神经元一样协同工作,共同处理复杂问题

psychology_alt

互相批判

智能体之间相互评估和质疑,通过批判性思维提高整体输出质量

trending_up

共同进化

系统通过不断反馈和调整,持续提高思考标准和认知深度

lightbulb

思维涌现

通过多智能体协作,产生超越单个智能体能力的创新性思考

python
# QNN 核心概念示例
class QualitativeNeuralNetwork:
    def __init__(self):
        self.agents = []  # 智能体集合
        self.connections = []  # 智能体间的连接
        self.evolution_threshold = 0.8  # 进化阈值
    
    def add_agent(self, agent):
        """添加智能体到网络中"""
        self.agents.append(agent)
    
    def connect_agents(self, agent1, agent2):
        """建立智能体间的连接"""
        self.connections.append((agent1, agent2))
    
    def collaborative_thinking(self, problem):
        """协作思考过程"""
        # 分解问题
        subproblems = self.decompose_problem(problem)
        
        # 分配任务
        assignments = self.assign_tasks(subproblems)
        
        # 协作求解
        results = self.collaborative_solve(assignments)
        
        # 互相批判
        critiques = self.mutual_critique(results)
        
        # 共同进化
        evolved_results = self.co_evolve(critiques)
        
        return evolved_results
多智能体协作系统的工作流程

多智能体协作系统的工作流程

cyclone 三步循环演化的思考系统

local-deepthink 的整个流程主要分为三步,形成一个循环演化的 AI 认知系统。通过这三步的循环迭代,系统能够逐步深入问题的本质,形成全面而深入的解决方案。

复杂的系统或网络结构图
A

前向传播

  • 把复杂问题分解成若干子问题,分配给不同智能体处理
  • 每一层都对上一层的结果加工重构,形成更深层次的理解
  • 通过这种方式,系统能够逐步深入问题的本质,形成全面的解决方案
B

反思传播

  • 系统评估上轮输出、自动生成更难的问题、动态修改智能体提示(prompt)
  • 形成一个自我升级回路,不断提高思考的质量和深度
  • 通过反思和质疑,系统能够发现自身的不足,并进行改进
C

收获传播

  • 把所有过程变成 RAG 知识库,积累经验和知识
  • 在 GUI 里反查每个智能体的决策,实现透明度和可解释性
  • 最后自动写成报告导出,形成最终的输出
python
# 工作流程伪代码示例
class DeepThinkWorkflow:
    def __init__(self):
        self.agents = []  # 智能体集合
        self.knowledge_base = []  # 知识库
        self.current_iteration = 0  # 当前迭代次数
    
    def forward_propagation(self, problem):
        """前向传播:分解问题并分配给智能体"""
        # 分解问题
        subproblems = self.decompose_problem(problem)
        
        # 分配给不同智能体
        results = []
        for subproblem in subproblems:
            agent = self.select_agent(subproblem)
            result = agent.process(subproblem)
            results.append(result)
        
        # 加工重构
        processed_result = self.process_and_refine(results)
        return processed_result
    
    def reflection_propagation(self, result):
        """反思传播:评估并改进"""
        # 评估输出
        evaluation = self.evaluate_result(result)
        
        # 生成更难的问题
        harder_questions = self.generate_questions(evaluation)
        
        # 动态修改智能体提示
        self.update_agent_prompts(harder_questions)
        
        return harder_questions
    
    def harvest_propagation(self, process_data):
        """收获传播:积累知识并生成报告"""
        # 存入知识库
        self.knowledge_base.append(process_data)
        
        # 构建RAG知识库
        rag_knowledge = self.build_rag_knowledge_base()
        
        # 生成报告
        report = self.generate_report(rag_knowledge)
        
        return report
    
    def run_workflow(self, problem, max_iterations=3):
        """运行完整工作流程"""
        current_problem = problem
        
        for i in range(max_iterations):
            # 前向传播
            result = self.forward_propagation(current_problem)
            
            # 反思传播
            new_questions = self.reflection_propagation(result)
            
            # 如果没有新问题,结束循环
            if not new_questions:
                break
                
            current_problem = new_questions
        
        # 收获传播
        final_report = self.harvest_propagation({
            "problem": problem,
            "iterations": i + 1,
            "results": result
        })
        
        return final_report
技术实现和组件

技术实现和组件

integration_instructions LangGraph + FastAPI + Ollama 技术栈

local-deepthink 使用了LangGraph + FastAPI + Ollama的技术栈,构建了一个完整的本地化多智能体协作系统。这套技术栈不仅支持复杂的智能体交互,还能在本地环境中高效运行,实现深度思考。

多智能体强化学习框架
account_tree

LangGraph

  • 用于构建 agent 协作图,定义智能体之间的关系和交互方式
  • 支持循环和分支,使系统能够进行多轮思考和反思
  • 提供持久性功能,保存系统状态,支持错误恢复和人工干预
api

FastAPI

  • 提供 Web API 接口,使系统能够通过网络访问
  • 支持异步处理,提高系统的响应速度和吞吐量
  • 提供自动生成的 API 文档,方便开发者使用和集成
memory

Ollama

  • 用于本地部署和运行大型语言模型,如 Qwen3-3B
  • 支持多种模型格式,包括 GGUF,适应不同的硬件环境
  • 提供 RESTful API,方便与其他组件集成

系统通过自然语言传递信息形成定性反向传播机制,每次迭代不仅改输出,还能修改思考方式本身。所有的反思日志都可以追踪,为系统的进一步优化提供数据支持。

python
# 技术栈集成示例
from langgraph.graph import StateGraph, END
from fastapi import FastAPI
from ollama import Client

# 初始化 FastAPI 应用
app = FastAPI(title="Local-DeepThink API")

# 初始化 Ollama 客户端
ollama_client = Client(host="http://localhost:11434")

# 创建 LangGraph 工作流
workflow = StateGraph(AgentState)

# 添加节点
workflow.add_node("forward_propagation", forward_propagation_node)
workflow.add_node("reflection_propagation", reflection_propagation_node)
workflow.add_node("harvest_propagation", harvest_propagation_node)

# 添加边
workflow.add_edge("forward_propagation", "reflection_propagation")
workflow.add_edge("reflection_propagation", "harvest_propagation")
workflow.add_edge("harvest_propagation", END)

# 设置入口点
workflow.set_entry_point("forward_propagation")

# 编译工作流
app_workflow = workflow.compile()

# FastAPI 端点
@app.post("/deepthink")
async def deepthink_endpoint(problem: str):
    # 运行工作流
    result = app_workflow.invoke({"problem": problem})
    
    # 返回结果
    return {"result": result}

# 启动服务
if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="0.0.0.0", port=8000)
项目的优势和挑战

项目的优势和挑战

balance 权衡与突破

local-deepthink 项目通过慢思考多智能体协作,为 AI 系统带来了新的可能性,同时也面临着一系列挑战。了解这些优势和挑战,有助于我们更好地评估和发展这一技术。

层次化架构图
thumb_up

项目优势

computer

本地运行

  • 使用 Ollama + Qwen3-3B 模型跑在笔电上,即使是 32GB RAM 的纯 CPU 机器,也能慢慢挖掘思想
  • 避免了依赖云端 API 的高成本,特别是对于长周期的多轮协作和持续反思
  • 提高了数据隐私和安全性,所有处理都在本地完成
psychology

深度思考

  • 通过慢思考的方式,系统能够进行更深入的推理和反思
  • 多智能体协作机制使得系统能够从多个角度思考问题,形成更全面的解决方案
  • 通过反思和质疑,系统能够不断改进自己的思考方式,提高输出质量
warning

项目挑战

sync_problem

稳定性问题

  • QNN 在复杂任务下能不能稳定的收敛?这是一个需要进一步研究的问题
  • 大量智能体带来的认知增益和边际回报是否能取得平衡?需要更多的实验和优化
verified

质量控制

  • 如何提升反思质量、避免陷入死循环?需要设计更有效的评估和反馈机制
  • 如何确保最终输出的质量和可靠性?需要建立更严格的质量控制标准
未来发展方向

未来发展方向

rocket_launch WLM:World Language Model

local-deepthink 项目的长期目标是训练出一个全新的模型 WLM(World Language Model),这一模型将彻底改变 AI 系统的设计范式,实现更高级的认知能力,接近人类的思考方式。

知识图谱驱动的跨学科解释框架
auto_awesome

WLM 的特点

psychology

自带协作和批判能力

不再需要写 prompt 来控制模型行为,模型自己能根据上下文,动态决定何时该分解思考,何时该生成质疑,何时该写总结。

smart_toy

自主决策机制

实现更高级的认知能力,接近人类的思考方式,能够自主进行推理、反思和决策。

route

实现路径

dataset

QNN 日志训练

通过 QNN 日志训练 WLM,利用多智能体协作过程中产生的数据和经验,形成高质量的训练数据集。

tune

架构优化

不断优化 QNN 架构,提高系统的稳定性和效率,为 WLM 的训练提供更好的基础。

public

潜在影响

change_circle

范式转变

可能改变 AI 系统的设计范式,从中心化超大规模服务转向分布式协作系统。

diversity_3

技术民主化

降低 AI 技术的使用门槛,使更多人能够受益于 AI 技术,促进 AI 技术的民主化,实现智力民主的愿景。

虽然 WLM 的目标与 local 的民主化理念有些相悖,但这是项目发展的必然方向,也是 AI 技术进步的重要一步。通过不断探索和创新,local-deepthink 有望为 AI 技术的发展开辟新的道路。