RAG+workflow

RAG+workflow

RAG+workflow模块构建了涵盖20+个核心框架的检索增强生成与工作流编排技术生态,专注于知识密集型AI应用的构建与优化。该模块系统性地整理了LangChain RAG框架、LlamaIndex数据连接器、Haystack NLP框架、Dify工作流平台、FastGPT知识库问答等主流技术栈,以及RAGFlow可视化RAG、QAnything文档问答、Quivr第二大脑等创新解决方案。

技术特色涵盖了文档解析与分块、向量化存储、语义检索、上下文融合、答案生成等完整RAG流程,详细解析了混合检索、重排序算法、上下文压缩、多跳推理等高级技术。模块深入介绍了工作流设计模式(顺序、并行、条件、循环)、节点类型定义(LLM、工具、判断、代码)、状态管理机制、错误处理策略等工作流编排核心技术,以及与企业系统(CRM、ERP、知识库)的集成方案。内容包括文档问答、智能客服、知识管理、内容生成等典型应用场景的架构设计,以及性能优化(缓存策略、并发控制、资源调度)、质量保障(答案评估、幻觉检测、事实核查)等工程化实践,帮助开发者构建高质量的知识增强型AI应用,实现企业知识的智能化管理和精准问答服务。

0.RAG技术总图(模块化)

该仓库围绕检索增强生成(RAG)展开,收集并分类相关论文,涵盖RAG的方法分类(基础、增强等)、应用分类(文本、代码、音频等多领域),还提及基准测试,且会持续更新以跟上领域快速发展。

-----------------------------------------------------------

1.Anything-LLM

简介

AnythingLLM 是一个一体化的人工智能应用,专为个人和团队设计,旨在将任何文档、资源或内容转化为可供大型语言模型 (LLM) 使用的上下文参考。它支持本地部署、桌面应用以及 Docker 环境,并具备完整的检索增强生成 (RAG) 和 AI Agent 能力,能够构建私有化的专属知识库,实现与文档的智能对话。

核心功能

技术原理

AnythingLLM 的核心技术原理是基于检索增强生成 (Retrieval-Augmented Generation, RAG) 架构。

应用场景

------------------------------------------------------------

1.Chatbox

简介

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,有社区版和专业版。可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用,主要功能免费,能实现与文档和图片聊天、代码生成与预览、实时联网搜索等功能,且重视用户数据隐私与安全。

Snipaste<em>2025-07-19</em>15-21-29.png

核心功能

应用场景

------------------------------------------------------------

1.Dify.AI

简介

Dify 是一个开源的 LLM 应用开发平台,旨在帮助开发者和企业高效地构建、部署和管理由大语言模型驱动的 AI 应用。它提供直观的界面,集成了 AI 工作流、RAG(检索增强生成)管道、智能代理能力、模型管理和可观测性等功能,加速了从原型到生产的整个过程。Dify 也支持插件市场,允许用户探索、分享和部署增强其应用能力的各种插件。

核心功能

技术原理

Dify 的核心技术原理围绕大型语言模型的应用开发与管理展开:

应用场景

------------------------------------------------------------

dify-DSL

简介

BestBlogs.dev 汇集顶级软件编程、人工智能等领域文章,利用大语言模型进行评分、摘要、翻译等,提供 RSS 订阅源和精选推送。Awesome - Dify - Workflow 则分享 Dify 工作流程,支持多任务并行等特性,还组建 VIP 群解答问题,有多种工作流文件示例及相关问题解答。

核心功能

技术原理

应用场景

------------------------------------------------------------

1.FastGPT

简介

FastGPT 是一个基于大语言模型的知识平台,也是 AI Agent 构建平台,提供数据处理、RAG 检索、模型调用、可视化 AI 工作流编排等开箱即用的能力,能让用户轻松开发和部署复杂问答系统。其项目技术栈为 NextJs + TS + ChakraUI + MongoDB + PostgreSQL (PG Vector 插件)/Milvus。

Snipaste<em>2025-07-19</em>15-21-59.png

核心功能

技术原理

FastGPT 采用 NextJs、TS 等构建前端,结合 ChakraUI 进行界面设计,使用 MongoDB、PostgreSQL 及相关插件存储数据。通过将文档进行文本预处理、向量化,存储到知识库中,在检索时进行混合检索和重排。工作流编排通过可视化界面将各个模块组合,实现复杂应用逻辑。与模型的交互通过对齐 OpenAI API 进行调用。

应用场景

------------------------------------------------------------

laf快速接入三方

简介

laf是一个开源的云开发平台,遵循Apache License 2.0开源协议。它提供云函数、云数据库、云存储、网站托管、WebSocket支持、WebIDE等开箱即用的应用资源,让开发者无需关注服务器运维,专注于业务开发。适合前端开发者、后端开发者、独立开发者和创业团队等使用,支持私有化部署。

核心功能

技术原理

laf作为开源云开发平台,以Serverless架构为基础,消除冷启动时间,提升响应速度。通过提供标准化的云函数、云数据库、云存储等资源接口,让开发者无需关心底层服务器运维,实现应用资源的快速调配与使用。同时,借助开源的高度可扩展性,允许开发者根据需求定制和修改平台。

应用场景

------------------------------------------------------------

sealos云操作系统

简介

Sealos 是一款以 Kubernetes 为内核的云操作系统发行版,抛弃传统云计算架构,转向以 Kubernetes 为云内核的新架构。它可让企业像使用个人电脑一样简单地使用云,具备应用管理、数据库管理等功能,具有高效经济、通用性强、灵活安全等优势,还提供社区支持与公开发展路线图。

核心功能

技术原理

Sealos 以 Kubernetes 作为内核构建云操作系统发行版,在 Sealos 4.0 中广泛利用 Buildah 的能力,确保集群镜像与 OCI 标准兼容,通过多租户共享机制实现资源隔离与协作,利用自动伸缩功能避免资源浪费。

应用场景

------------------------------------------------------------

1.LangBot

简介

LangBot 是一个简单易用的大模型即时通信机器人开发平台,具有高稳定、支持扩展、多模态等特点。它支持多种即时通信平台,集成了众多大模型和 Agent,还具备丰富的功能和插件机制,可通过 Web 管理面板进行管理。

核心功能

技术原理

LangBot 集成了多种大模型和 Agent,通过适配不同即时通信平台的接口实现消息交互。利用插件机制实现功能扩展,采用事件驱动和组件扩展方式,适配 Anthropic MCP 协议。同时,具备原生的访问控制、限速等机制保障稳定性。

应用场景

------------------------------------------------------------

1.MaxKB

简介

MaxKB 是飞致云旗下强大易用的企业级开源 AI 助手,它集成了检索增强生成(RAG)管道,支持强大的工作流和先进的 MCP 工具使用能力。该产品致力于解决企业 AI 落地面临的技术门槛高、部署成本高、迭代周期长等问题,广泛应用于智能客服、企业内部知识库、学术研究和教育等场景。 Snipaste<em>2025-07-19</em>15-22-49.png

核心功能

技术原理

应用场景

------------------------------------------------------------

Halo - 强大易用的开源建站工具

简介

Halo 是强大易用的开源建站工具,采用 GPL-v3.0 协议开源。它具有可插拔架构、功能丰富的主题机制和富文本编辑器等特性,支持插件扩展、模板定制、附件管理和全文搜索等功能。用户可通过 Docker 或 1Panel 等方式部署,其官网为 https://www.halo.run 。

核心功能

技术原理

Halo 采用可插拔架构,降低功能模块间耦合度,通过提供插件开发接口实现扩展性和可维护性。其主题机制基于模板系统,允许用户自定义配置和预览。富文本编辑器提供便捷创作功能,内置全文搜索引擎支持关键字搜索。此外,通过插件机制可在运行时扩展系统功能,支持多种存储策略和外部搜索引擎扩展。

应用场景

------------------------------------------------------------

1.Ragflow

简介

RAGFlow是一款基于深度文档理解构建的开源RAG(Retrieval-Augmented Generation)引擎,为企业和个人提供精简的RAG工作流程。结合大语言模型,它能针对复杂格式数据提供可靠问答及有理有据的引用。近期有支持跨语言查询、新增代码执行器组件等更新。

核心功能

技术原理

RAGFlow结合深度文档理解技术,对复杂格式数据进行处理。在检索阶段运用多路召回和融合重排序技术筛选相关信息,再结合大语言模型进行答案生成。系统依赖如Elasticsearch或Infinity等数据库存储文本和向量数据,通过合理配置系统环境变量和服务参数确保系统正常运行。

应用场景

------------------------------------------------------------

1.kotaemon

简介

Kotaemon是一个开源的、简洁且可定制的基于检索增强生成(RAG)的工具,用于与文档进行对话。它兼顾了终端用户和开发者的需求,终端用户可使用其进行文档问答,开发者则能借助它构建自己的RAG管道。

核心功能

技术原理

Kotaemon基于检索增强生成(RAG)技术,结合了全文检索和向量检索的混合检索器,并进行重新排序以确保最佳检索质量。使用Gradio构建用户界面,支持多种大语言模型API和本地模型。同时,它还支持多种推理管道,如简单问答管道、问题分解管道、基于ReAct和ReWOO的代理管道等。

应用场景

------------------------------------------------------------

1.lobe-chat

简介

Lobe Chat 是一款开源的、拥有现代设计的 ChatGPT/大语言模型 UI 框架,支持语音合成、多模态和可扩展(函数调用)插件系统。用户能一键免费部署私人的 OpenAI ChatGPT、Claude、Gemini 等聊天应用,适用于超级个体用户及开发者。

Snipaste<em>2025-07-19</em>15-23-49.png

核心功能

技术原理

应用场景

------------------------------------------------------------

1.n8n

简介

n8n 是一个工作流自动化平台,为技术团队提供代码灵活性与无代码速度。它拥有 400 多个集成、原生 AI 能力,采用公平代码许可,让用户构建强大自动化的同时,完全掌控数据和部署。

核心功能

------------------------------------------------------------

1.字节FlowGram

简介

FlowGram.AI是一个基于节点的流程构建引擎,可帮助开发者以固定布局或自由连接布局模式快速创建工作流,提供了一套交互最佳实践,适用于具有清晰输入输出的可视化工作流,同时也聚焦于用AI能力赋能工作流。

核心功能

应用场景

适用于具有清晰输入输出的可视化工作流场景,可用于快速创建各类工作流程。

------------------------------------------------------------

2.AstrBot-聊天机器人

简介

AstrBot 是一个松耦合、异步、支持多消息平台部署、具有易用插件系统和完善大语言模型接入功能的聊天机器人及开发框架。自带知识库能力,支持接入 MCP 服务器,基于前沿科研成果设计的相关模型将在 v3.6.0 版本提升对话体验。

核心功能

技术原理

基于事件总线和流水线的架构设计,高度模块化、低耦合。通过接入不同大语言模型的 API 或本地部署模型加载器实现大模型对话功能;利用优化的插件机制实现功能扩展;借助可视化管理面板实现便捷配置管理。

应用场景

------------------------------------------------------------

2.AutoRAG

简介

AutoRAG 是一款用于为用户数据自动寻找最优检索增强生成(RAG)管道的工具。它支持对多种 RAG 模块组合进行简单评估,用户可借助自身评估数据自动评估不同 RAG 模块,从而找出最适合自身用例的 RAG 管道。此外,还有基于网页的 AutoRAG GUI(测试版),操作更为便捷。

核心功能

技术原理

AutoRAG 通过配置 YAML 文件设置 RAG 优化参数,利用多种指标(如检索指标、生成指标等)对不同节点和模块进行评估。在优化过程中,对检索、提示制作、生成等节点的不同模块组合进行测试,依据指标找出最优组合。

应用场景

------------------------------------------------------------

2.BISHENG毕昇

简介

BISHENG是一个面向企业场景的开源大语言模型(LLM)应用运维平台,已被众多行业领先组织和世界500强公司使用。其名称源于活字印刷术发明者毕昇,寓意为智能应用的广泛实施提供有力支持。

核心功能

技术原理

应用场景

适用于文档审查、固定格式报告生成、多智能体协作、政策更新对比、客服支持、会议纪要生成、简历筛选等企业应用场景。

------------------------------------------------------------

2.Chat-ollama

简介

Ollama是流行的大模型本地化工具,支持多种开源大模型。ChatOllama是基于大语言模型的开源聊天机器人,支持多种语言模型,具备多种聊天类型和管理功能,还对知识库问答体验进行了升级。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.ChatALL

简介

ChatALL(齐叨)是一款可让用户同时与多个AI聊天机器人进行对话的客户端工具,支持ChatGPT、Bing Chat、Bard等众多AI,能帮助用户发现最佳答案,适用于大语言模型的专家、研究人员和开发者等。

核心功能

技术原理

通过反向工程实现与支持网页访问的AI机器人建立连接,利用API与支持API访问的机器人通信。收集用户的匿名使用数据,如使用的AI机器人、提问时长等,以改进产品。

应用场景

------------------------------------------------------------

2.FlashRAG

简介

FlashRAG是一个用于检索增强生成(RAG)研究的Python工具包,包含36个预处理的基准RAG数据集和17种先进的RAG算法,支持多种RAG流程的复现与开发,还提供易于使用的UI。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.Flowise

简介

Flowise是一个开源的生成式AI开发平台,用于构建AI代理和大语言模型(LLM)工作流。它提供了可视化构建器、跟踪与分析、评估、人工干预、API、CLI、SDK、嵌入式聊天机器人等功能。有三种主要的可视化构建器:Assistant、Chatflow和Agentflow。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.LangBot-即时通信机器人平台

简介

LangBot 是大模型时代的即时通信机器人平台,具有多模型、多平台适配及丰富生态的特点。它支持 OpenAI、DeepSeek、Claude 等主流大模型,适配 QQ、微信等多种消息平台,还集成了 Dify、阿里云百炼等 LLMOps 平台,提供 WebUI 方便用户快速部署和使用。

核心功能

技术原理

LangBot 作为大语言模型原生的即时通信机器人平台,在技术架构上整合了多种大语言模型的能力,通过与不同模型供应商的接口对接,实现多模型支持。在多平台适配方面,利用各消息平台的开放 API 进行通信交互。其插件系统基于模块化设计,允许开发者开发和集成各种功能插件。同时,借助 LLMOps 平台实现模型的管理和优化。

应用场景

------------------------------------------------------------

2.Langchain-Chat

简介

Langchain-Chatchat(原 Langchain-ChatGLM)是基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现的开源、可离线部署的 RAG 与 Agent 应用项目。旨在建立对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案,支持主流开源 LLM、Embedding 模型与向量数据库,可全部使用开源模型离线私有部署。

核心功能

技术原理

项目实现过程为加载文件、读取文本、文本分割、文本向量化、问句向量化,在文本向量中匹配出与问句向量最相似的 top k 个,将匹配出的文本作为上下文和问题一起添加到 prompt 中,提交给 LLM 生成回答。依托 langchain 框架,通过基于 FastAPI 提供的 API 调用服务,或使用基于 Streamlit 的 WebUI 进行操作。

应用场景

------------------------------------------------------------

langchain-chat-github-issue

------------------------------------------------------------

2.Langflow

简介

Langflow 是用于构建和部署 AI 驱动的智能体和工作流的强大工具,具备可视化构建界面,支持主流大语言模型、向量数据库和各类 AI 工具,可将工作流集成到任意框架或堆栈构建的应用中。

核心功能

技术原理

Langflow 基于 Python 开发,结合可视化构建界面,通过拖拽操作连接提示、语言模型、数据源等不同组件,构建复杂 AI 工作流。内置 API 和 MCP 服务器,可将工作流转化为工具进行集成,支持多种大语言模型和向量数据库,实现多智能体编排和对话管理。

应用场景

------------------------------------------------------------

2.Librechat

简介

LibreChat是一个增强版的ChatGPT克隆项目,支持多种AI模型,如DeepSeek、Anthropic、OpenAI等,具备AI模型切换、消息搜索、代码解释器等功能,开源可自托管,适合多用户使用。

核心功能

技术原理

该项目整合多种AI模型和服务,利用模型上下文协议(MCP)支持工具集成,结合搜索提供商、内容抓取器和结果重排器实现网络搜索,通过沙盒技术保障代码执行安全,使用OAuth2、LDAP等实现多用户安全认证。

应用场景

------------------------------------------------------------

2.NextChat (ChatGPT Next Web)

简介

ChatGPT-Next-Web 是一个开源项目,旨在为 ChatGPT 和 Gemini 等大型语言模型提供一个美观、快速且跨平台的图形用户界面(UI)。它支持用户一键部署自己的私人 AI 助理应用,并可在 Web、PWA、Linux、Windows、macOS、iOS 和 Android 等多个平台上运行。

核心功能

技术原理

该项目主要基于 Web 技术构建用户界面,通过集成各类大语言模型的 API Key 来实现与模型的通信。其跨平台特性可能得益于现代 Web 技术(如 React、Next.js)和桌面应用框架(如 Tauri)的结合,从而将 Web 应用打包成原生桌面或移动应用。部署方面,利用如 Vercel 等平台进行无服务器部署,实现应用的快速上线与托管。核心在于前端界面的构建和后端对多模型 API 的统一管理与调用。

应用场景

------------------------------------------------------------

2.PandaWiki

简介

PandaWiki 是一款由 AI 大模型驱动的开源知识库搭建系统,可帮助用户快速构建智能化的产品文档、技术文档、FAQ、博客系统。它借助大模型提供 AI 创作、AI 问答、AI 搜索等能力,还具备强大的富文本编辑、与第三方应用集成、从第三方来源导入内容等功能。

核心功能

技术原理

PandaWiki 基于 AI 大模型驱动,内置强大的 RAG(检索增强生成)能力。它深度封装复杂技术,将大模型的智能处理能力与知识库的管理功能相结合,通过对导入文档的处理和分析,为不同的知识库分别创建 “Wiki 网站”,以实现 AI 创作、问答和搜索等功能。

应用场景

------------------------------------------------------------

2.QAnything-网易

简介

QAnything是由网易有道开发的本地知识库问答系统,支持任意格式文件或数据库,可断网安装使用。具有数据安全、跨语种问答、支持海量数据等特点,采用两阶段向量排序解决大规模数据检索退化问题,其开源版本基于通义千问微调,增强了问答能力。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.Quivr开源云端知识库检索项目

简介

Quivr是开源的AI知识库解决方案,可将本地文件向量化后存储到云端,支持文本、图像、视频、代码片段等内容上传,用户能通过LLM实现信息检索和问答。它兼容多种文件格式,采用先进人工智能技术,具有安全可靠、快速高效等特点,且免费使用。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.VRAG-qwen 多模态

简介

VRAG - RL是阿里巴巴提出的用于视觉丰富信息复杂推理的强化学习框架。它改进了现有视觉检索增强生成(RAG)方法在处理视觉信息时推理能力激活不足、检索效率低和多轮推理不稳定等问题,通过引入视觉感知动作空间、细粒度检索奖励等提升了视觉语言模型(VLMs)在视觉信息检索和推理方面的性能。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.chat-langchain

简介

链接涉及Chat LangChain相关内容,包含其GitHub项目页面和在线聊天页面,从聊天页面问题可知与LangChain使用、技术实现等相关。

核心功能

- 提供关于LangChain使用的交流与问答。 - 帮助解决LangChain在加载内容、定义状态模式、本地运行模型、实现RAG技术等方面的问题。

应用场景

- 开发者在使用LangChain进行开发时遇到问题寻求解决方案。 - 学习者了解LangChain的各项技术及应用。

------------------------------------------------------------

2.chatwoot

简介

Chatwoot是一款现代、开源且支持自托管的客户支持平台,可替代Intercom、Zendesk等工具。它能集中管理多渠道客户对话,提供AI代理、帮助中心门户等功能,还有丰富的协作、数据管理、集成、报告等特性。

核心功能

技术原理

文档未提及明确技术原理,推测其采用前后端分离架构,后端可能使用Ruby on Rails处理业务逻辑和数据存储,前端使用Vite构建用户界面,借助Docker实现容器化部署,利用Crowdin进行翻译管理。

应用场景

------------------------------------------------------------

2.comfyUI

简介

ComfyUI 是强大且模块化的视觉 AI 引擎与应用程序,支持在 Windows、Linux 和 macOS 上运行。它提供基于图形/节点/流程图的界面,用于设计和执行高级稳定扩散管道,无需编写代码。

核心功能

技术原理

ComfyUI 基于稳定扩散技术,利用节点/图形/流程图界面将不同功能封装为节点,通过连接节点构建工作流。在执行时,仅重新执行工作流中发生变化的部分,实现高效计算。同时,采用智能内存管理,可在低显存 GPU 上运行模型。

应用场景

------------------------------------------------------------

2.fast-wiki

简介

FastWiki 是一个基于 .NET8、React 和 LobeUI 技术栈构建的企业级智能客服知识库系统。它旨在提供高性能、大规模的信息检索和智能搜索能力,并已成为 AIDotNet 组织旗下的开源项目,致力于为企业提供一站式 AI 应用平台解决方案。

核心功能

技术原理

应用场景

------------------------------------------------------------

2.ragapp

简介

RAGApp 是一个开源的 Agentic RAG(检索增强生成)框架,旨在为企业用户提供一种简单便捷的方式,用于构建和部署 Retrieval-Augmented Generation 应用程序。它通过集成关键组件,极大地简化了复杂 RAG 系统的开发流程,使得在任何企业环境中都能高效利用 AI 技术。

核心功能

技术原理

RAGApp 基于开源的 Python 框架构建,其核心在于实现了 Agentic RAG 范式。该框架通过高效地将检索模块与生成模块相结合,使得 LLM 在生成回复时能够访问并利用外部知识库中的信息。具体实现包括:

应用场景

------------------------------------------------------------

2.rasa-对话系统

简介

Rasa 是一个开源的机器学习框架,专门用于自动化基于文本和语音的对话。它使用户能够构建和部署功能强大的聊天机器人和语音助手,并支持连接到多种流行的消息平台,如 Slack 和 Facebook。

核心功能

技术原理

Rasa 作为一个机器学习框架,其核心在于利用机器学习模型处理自然语言和管理对话状态。它主要包含两个核心组件:

应用场景

------------------------------------------------------------

3.Chainlit

简介

Chainlit 是一个开源的 Python 软件包,旨在帮助开发者在几分钟内快速构建并部署生产级的对话式 AI 应用。它提供了一套简洁的框架,使开发者能够专注于核心的AI逻辑,同时处理用户界面、数据持久化和认证等复杂性。

核心功能

技术原理

Chainlit 基于 Python 语言构建,核心在于其事件驱动的架构,通过 @cl.on_message 等装饰器捕获用户输入,并利用 cl.Message().send() 等函数进行响应。它提供了一个抽象层,简化了与大型语言模型 (LLM) 和 AI 代理的交互,允许开发者轻松集成如 LangChain、OpenAI 的 API 以及 Autogen 代理等。其设计支持模块化开发,可将AI逻辑与前端界面分离,并能以Web服务(如基于FastAPI)的形式提供后端支持。在数据管理方面,它实现了数据持久化机制,用于存储和分析用户交互数据。

应用场景

------------------------------------------------------------

3.OpenChat

简介

OpenChat是一个开源的、面向日常用户的聊天机器人控制台,旨在简化大型语言模型的利用和定制化聊天机器人的创建与管理。它提供一个用户友好的平台,通过简单的两步设置过程即可构建全面的聊天机器人解决方案,并可作为集中枢纽来管理多个定制化机器人。

核心功能

技术原理

OpenChat基于大型语言模型(LLMs)构建,采用模块化架构设计。其技术实现可能包括:

应用场景

------------------------------------------------------------

3.Verba

简介

Verba (The Golden RAGtriever) 是一个由Weaviate驱动的开源检索增强生成 (RAG) 聊天机器人应用,旨在提供一个端到端、精简且用户友好的界面,用于开箱即用的RAG功能。它是一个社区驱动的项目,致力于普及不同的RAG技术并展示Weaviate的强大能力。

核心功能

技术原理

Verba的核心技术原理基于检索增强生成(Retrieval Augmented Generation, RAG)范式,它结合了信息检索和生成模型。

应用场景

------------------------------------------------------------

3.Zep:AI 助手的长期记忆

简介

Zep 是一个专为大型语言模型(LLM)和聊天机器人应用设计的长期记忆存储系统。它能够帮助AI助手更有效地存储、管理和检索对话历史、用户数据和相关文档,从而提高AI的准确性和个性化程度。Zep 通过其独特的时间知识图谱(Temporal Knowledge Graph)机制,使AI能够理解和推理用户与业务数据的动态变化,实现持续学习和适应。

核心功能

技术原理

Zep 的核心技术在于其时间知识图谱(Temporal Knowledge Graph)。该图谱不仅存储事实,还能维护关于事实的上下文信息,并能推理状态变化。这意味着Zep能够记录和理解数据随时间如何演变,从而为AI提供数据溯源洞察。

应用场景

------------------------------------------------------------

3.danswer

简介

Onyx(原Danswer)是一个连接公司文档、应用程序和人员的AI平台,提供功能丰富的聊天界面,可接入任意大语言模型。能让知识和访问控制在超40种连接器(如谷歌云端硬盘、Slack等)间同步,可在任何地方安全部署。

核心功能

技术原理

运用自定义深度学习模型进行索引和推理,结合多种信息检索方法(如StructRAG、LightGraphRAG等),利用大语言模型实现聊天交互,通过连接器与各类应用集成实现知识同步。

应用场景

------------------------------------------------------------

3.private-gpt

简介

PrivateGPT是一个可投入生产的AI项目,允许用户借助大语言模型(LLMs)对文档提问,即便在无网络连接的场景下也能使用,且完全私密,数据不会离开执行环境。项目提供遵循并扩展OpenAI API标准的API,可构建私密、上下文感知的AI应用,同时提供Gradio UI客户端用于测试API。

核心功能

技术原理

应用场景

------------------------------------------------------------

4.TurboRAG

简介

TurboRAG是一个新型检索增强生成(RAG)系统,通过预先计算和存储文档的键值(KV)缓存来加速检索增强生成过程,显著减少首次token输出(TTFT)的延迟,适用于对响应时间有严格要求的场景。

核心功能

技术原理

应用场景

------------------------------------------------------------

4.dialoqbase

简介

Dialoqbase是一款开源的工具,旨在帮助用户轻松创建个性化聊天机器人。它允许用户利用自己的专属知识库构建聊天机器人,从而提供高度相关且理解上下文的回复。该项目代码基于MIT许可,可免费用于商业用途。

核心功能

技术原理

Dialoqbase的核心技术原理包括:

应用场景

------------------------------------------------------------

4.knowledge_gpt

简介

Knowledge GPT 是一个可对文档提供准确答案和即时引用的项目,用户界面基于 Streamlit 构建,LLM 工具使用 Langchain。项目目前支持部分文件格式,后续有丰富功能的规划。

核心功能

技术原理

应用场景

------------------------------------------------------------

4.rag-gpt

简介

RAG-GPT(Retrieval Augmented Generation - GPT)是一个结合大型语言模型(LLM)和检索增强生成(RAG)技术的系统。其核心目标是根据用户定制的知识库提供上下文相关的准确答案,从而实现快速而精确的信息检索。它通过学习用户提供的专有数据来扩展其知识范围,使其能够处理广泛的查询类型。

核心功能

技术原理

RAG-GPT的核心技术原理是检索增强生成(Retrieval Augmented Generation, RAG)

应用场景

------------------------------------------------------------

4.ten_framework

简介

TEN(Transformative Extensions Network)是一个开源框架,旨在构建下一代实时多模态AI智能体,特别是专注于会话式语音AI智能体。它被誉为全球首个真正的实时多模态AI智能体框架,强调高性能、模块化和低延迟的特性。

核心功能

技术原理

应用场景

NativeMindExtension -AI本地助手

NativeMindExtension-GitHub

NativeMind-官网

简介

NativeMind是一款本地AI助手,可连接Ollama本地大语言模型,在浏览器中提供AI功能,无需将私人数据上传到云端。具有本地优先、隐私为本、开源、支持企业级应用等特点,支持多种强大开源模型本地运行。

核心功能

技术原理

通过连接Ollama,实现本地大语言模型(如DeepSeek、Qwen、Llama等)的运行,所有操作在本地设备完成,无需将数据发送到云端,利用本地算力进行数据处理和交互。

应用场景

WeKnora – 腾讯开源的文档理解与语义检索框架

WeKnora是腾讯开源的一款基于大语言模型(LLM)的文档理解与语义检索框架。它专为处理结构复杂、内容异构的文档场景而设计,旨在提供智能问答解决方案,能够快速从文档中提取洞察并提供答案。

wwweknora.jpg

核心功能

技术原理

WeKnora的核心技术原理是结合了大语言模型(LLM)检索增强生成(RAG)范式。它通过以下步骤实现其功能:

应用场景

WeKnora的项目地址

ComoRAG – 华南理工联合微信推出的认知启发式RAG框架

ComoRAG 是由华南理工大学未来技术学院、微信AI团队等机构联合推出的认知启发式检索增强生成(RAG)框架。该框架专门针对长篇叙事文本的理解和推理而设计,能够处理长文档和多文档任务,实现有状态的长期叙事推理。

comorag.png

核心功能

技术原理

ComoRAG 的核心技术原理是其“认知启发式记忆组织检索增强生成”(Cognitive-Inspired Memory-Organized RAG)框架。它通过模拟人类认知过程中的记忆组织和推理机制来处理复杂信息:

应用场景

------------------------------------------------------------

⬆ 返回README目录 ⬆ Back to Contents