1 引子
前几天,AI 编程机器人 Devin 引起了热议。传言称:程序员的饭碗就要丢了。这两天,一个类似功能的产品 SWE-Agent 开源,在 SWE-Bench 上实现了与 Devin 类似的效果。下面让我们来看看 AI 程序员的具体实现方法。
2 信息
- 地址:https://github.com/princeton-nlp/SWE-agent
- 功能:修复 Github 库 Issue 中的问题。
3 原理
作者提出了:Agent-Computer Interface (ACI) 代理计算机接口。优化了 Agent 与计算机之间的衔接,使LLM 能够访问、查看、编辑和执行代码文件。
贡献如下:
- 添加了编辑时运行命令的 Linter,如果语法不正确,则不允许编辑命令通过。
- 为 Agent 提供了文件查看器,在每个回合只显示 100 行时,查看器效果最佳。作者构建的查看器支持上下文滚动,并且可以在文件中进行搜索。
- 为 Agent 提供了专门构建全目录字符串搜索命令,并发现以简洁的方式列出匹配项很重要。因为每次向模型展示每个匹配项反而会给模型带来更大混乱。
- 当命令的输出为空时,将返回一条消息指出:命令已成功运行,但未产生任何输出。
4 安装使用
PLAINTEXT
1 2 3 4 | $ git clone https://github.com/princeton-nlp/SWE-agent $ cd SWE-agent $ ./setup.sh # 安装 docker 环境,用于Agent调试程序,image 不到 1G。 # 运行方法详见 README.md |
在运行时,将 github issue 地址提供给推理工具,该工具将尝试解决问题。setup.sh 文件创建了一个简单的运行环境,Agent 可以在此修改和调试程序,而不会影响宿主机环境。有关与 docker 的交互,请参见下面的代码分析部分。
5 代码分析
整个项目包含 3500 行 Python 代码和 700 行 Shell 代码。其中核心部分是 sweagent 目录下的 2200 行 Python 代码。每个重要的地方都有 README 文件,非常贴心。
可能是由于代码场景与聊天场景存在明显差异,因此未使用 langchain 等库,并且依赖的库数量较少。上下文和记忆主要是自己实现的。这里主要关注作为“接口”时 Agent 如何与环境进行交互。似乎所有交互都在 sweagent 目录实现。
- sweagent/evviroment
- swe_env.py:主要是与 docker 环境交互,以操作 shell 命令为主;flake8 检查代码;好像是用 popen 方式实现了与 docker 内部更为复杂的交互操作。
- utils.py:操作 docker 的工具函数。
- sweagent/agent 则是与大模型交互部分
- agents.py:主调入口,调用编辑器,运行代码的程序,其中 Agent 为核心类。
- models.py:底层支持 gpt,claude, llama 等多种 LLM。
- command.py:运行命令。
- parsing.py:解析 LLM 返回结果。
- history_processors.py:记录执行历史。
6 观后感
之前对 agent 与系统交互只有个模糊的概念,从 SWE-Agent 代码里可以看到具体的实现方法。
公平地说,GitHub issue 中有些问题并不容易解决,因为涉及到复杂的运行环境和前后操作,以及只能在特定条件下才能复现,而 SWE-Bench 相对简化了这些问题,提供了评测的基线,内眼可见最近 AI 在这个领域进步,进一步证明了大型模型的能力,并指明了未来努力的方向。
不过 GitHub 上那些受欢迎的代码通常适用于各种情况,而大多数程序员每天面对的只是固定环境和较小规模的代码。所以他解决我们日常问题可能也够用了。
从 SWE-Agent 中可以看到,并非一定需要颠覆性改变,而是通过解决关键性问题、进行小改进以及多次尝试所积累的经验方法,加在一起效果就是好。
展望一下:参考 RAG 到 RAG2.0,通过微调模型来优化搜索的方法。后面 Agent 用得多了,大概也会关注通过微调模型让 Agent 更好工作的逻辑。见前文:强化学习+大模型_总结篇;另外,在看 Devin 介绍视频的时候,还看到一些 Devin 连网搜索资料和操作浏览器的功能。最近也有很多人在跟进这方面的研究,估计后面也会成为一个热点。
对于程序员和设计者来说,后面可能也面临角度的转换:可能不只关注如何实现一个完整的系统,更多地关注如何将各种功能包装成高内聚的模块,并且做好接口和文档,以便将其与 Agent 集成到更大的系统中。