KwaiAgents: 快手Agent系列

176次阅读
没有评论

KwaiAgents 是快手快知团队开源的一整套 Agent 系列工作。这个开源项目包括以下内容:

动态

KwaiAgents 是由快手快知团队开源的一整套 Agent 系列工作。这个开源项目包括以下内容:

  • KAgentSys-Lite:这是论文中 KAgentSys 的轻量版系统,保留了一部分原系统的功能。相比功能齐全的系统,KAgentSys-Lite 有一些差异:(1)缺少部分工具;(2)缺乏记忆机制;(3)性能略有降低;(4)使用不同的代码库,Lite 版本基于开源项目如 BabyAGI 和 Auto-GPT。尽管有这些变更,KAgentSys-Lite 在众多开源 Agent 系统中仍然具有较好的性能。
  • KAgentLMs:这是经过论文中提出的 Meta-agent tuning 之后的系列大模型,具备了规划、反思、工具使用等能力。
  • KAgentInstruct:这是一个包含超过 20 万条经过人工编辑的 Agent 相关指令微调数据集。
  • KAgentBench:这是一个包含超过 3000 条经过人工编辑的自动化评测 Agent 能力数据集,评测维度包括规划、工具使用、反思、总结、人设指令等。

评测表现

KwaiAgents 提供了一系列模型和数据集来评测 Agent 的能力。以下是一些关键的模型和数据集:

模型 训练数据Benchmark
Qwen-7B-MATKAgentInstruct (即将发布)KAgentBench
Baichuan2-13B-MATKAgentInstruct (即将发布)KAgentBench

使用指南

如果你想使用 KwaiAgents,以下是一些快速入门指南:

AgentLMs 系列模型使用

AgentLMs 系列模型是具备规划、反思和工具使用等能力的大模型。你可以按照以下步骤使用这些模型:

  1. 安装依赖:在项目根目录下执行以下命令安装所需的依赖:
pip install -r requirements.txt
  1. 加载模型:使用 Hugging Face Transformers 库加载所需的模型,例如:
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "kwaikeg/kagentlms_qwen_7b_mat"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
  1. 生成文本:使用加载的模型生成文本,例如:
input_text = "今天天气不错,"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output = model.generate(input_ids, max_length=50,# 📚 KwaiAgents: 快手 Agent 系列工作

<p align="center">
    <a href="/KwaiKEG/KwaiAgents/blob/main/blob/logo.png"><img src="/KwaiKEG/KwaiAgents/raw/main/blob/logo.png" width="400" style="max-width: 100%;"></a>
</p>

<p align="left">
    <a href="/KwaiKEG/KwaiAgents/blob/main/README.md">English</a> | 中文
</p>

KwaiAgents 是快手快知团队开源的一整套 Agent 系列工作。这个开源项目包括以下内容:### 动态

KwaiAgents 是由快手快知团队开源的一整套 Agent 系列工作。这个开源项目包括以下内容:- **KAgentSys-Lite**:这是论文中 KAgentSys 的轻量版系统,保留了一部分原系统的功能。相比功能齐全的系统,KAgentSys-Lite 有一些差异:(1)缺少部分工具;(2)缺乏记忆机制;(3)性能略有降低;(4)使用不同的代码库,Lite 版本基于开源项目如 BabyAGI 和 Auto-GPT。尽管有这些变更,KAgentSys-Lite 在众多开源 Agent 系统中仍然具有较好的性能。- **KAgentLMs**:这是经过论文中提出的 Meta-agent tuning 之后的系列大模型,具备了规划、反思、工具使用等能力。- **KAgentInstruct**:这是一个包含超过 20 万条经过人工编辑的 Agent 相关指令微调数据集。- **KAgentBench**:这是一个包含超过 3000 条经过人工编辑的自动化评测 Agent 能力数据集,评测维度包括规划、工具使用、反思、总结、人设指令等。### 评测表现

KwaiAgents 提供了一系列模型和数据集来评测 Agent 的能力。以下是一些关键的模型和数据集:| 模型                           | 训练数据                                     | Benchmark                                      |
|-------------------------------|--------------------------------------------|-----------------------------------------------|
| [Qwen-7B-MAT](https://huggingface.co/kwaikeg/kagentlms_qwen_7b_mat)       | [KAgentInstruct](https://huggingface.co/datasets/kwaikeg/KAgentInstruct) (即将发布) | [KAgentBench](https://huggingface.co/datasets/kwaikeg/KAgentBench)            |
| [Baichuan2-13B-MAT](https://huggingface.co/kwaikeg/kagentlms_baichuan2_13b_mat) | [KAgentInstruct](https://huggingface.co/datasets/kwaikeg/KAgentInstruct) (即将发布) | [KAgentBench](https://huggingface.co/datasets/kwaikeg/KAgentBench)            |

### 使用指南

如果你想使用 KwaiAgents,以下是一些快速入门指南:#### AgentLMs 系列模型使用

AgentLMs 系列模型是具备规划、反思和工具使用等能力的大模型。你可以按照以下步骤使用这些模型:1. 安装依赖:在项目根目录下执行以下命令安装所需的依赖:

pip install -r requirements.txt

2. 加载模型:使用 Hugging Face Transformers 库加载所需的模型,例如:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = “kwaikeg/kagentlms_qwen_7b_mat”
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

3. 生成文本:使用加载的模型生成文本,例如:

input_text = “ 今天天气不错,”
input_ids = tokenizer.encode(input_text, return_tensors=”pt”)
output = model.generate(input_ids, max_length=50,

正文完
 
评论(没有评论)